本文介绍了面向 AI 推理的英特尔® 精选解决方案以及其如何解决 AI 推理部署的痛点,包括其中采用的软件、硬件和技术。该系列解决方案有基础和增强配置,提供灵活的可定制性,以满足不同需求。您可通过阅读本文具体了解如何在符合行业标准的硬件上部署优化的高速人工智能推理,驱动更高商业价值。

越来越多的企业希望借助人工智能 (AI) 以增加收入、提高效率并推动产品创新。尤其需要指出的是,基于深度学习 (DL) 技术的人工智能用例能够带来有效且实用的洞察;其中一些用例可在众多行业推动进步,例如:

  • 图像分类:可用于概念分配,例如人脸情感分类
  • 对象检测:可用于自动驾驶技术中的对象定位
  • 图像分割:可用于在患者的核磁共振成像 (MRI) 中勾勒器官轮廓
  • 自然语言处理:可用于文本分析或翻译
  • 推荐系统:可用于线上商店预测客户偏好或推荐更高价值的产品或服务

这些用例仅仅只是开始。随着企业将人工智能融入业务运营,他们将发现应用人工智能的新方法。然而,所有人工智能用例的商业价值都取决于由深度神经网络训练的模型的推理速度。在深度学习模型上支持推理所需的资源规模可能非常庞大,通常需要企业更新硬件以获得其所需的性能和速度。但是,许多客户希望扩展其现有的基础设施,而不是重新购买单一用途的新硬件。您的 IT 部门已经非常熟悉英特尔® 硬件架构,其灵活性能使您的 IT 投资更高效。面向人工智能推理的英特尔® 精选解决方案是“一站式”平台,提供经过预配置、优化和验证的解决方案,无需另外配置加速卡,即可在 CPU 上实现低时延、高吞吐量的推理。

面向人工智能推理的英特尔® 精选解决方案

面向人工智能推理的英特尔® 精选解决方案能帮助您快速入门,利用基于经验证的英特尔® 架构的解决方案,部署高效的人工智能推理算法,从而加速创新和产品上市。为了加快人工智能应用的推理和上市,面向人工智能推理的英特尔® 精选解决方案结合了多种英特尔及第三方的软硬件技术。

软件选择

面向人工智能推理的英特尔® 精选解决方案使用的软件包括开发人员工具和管理工具,以辅助生产环境中的人工智能推理。

英特尔® 分发版 OpenVINO™ 工具包

英特尔® 分发版开放视觉推理和神经网络优化工具包(即英特尔® 分发版 OpenVINO™ 工具包)是一套开发人员套件,可加速高性能人工智能和深度学习推理的部署。该工具套件可针对多种英特尔® 硬件选项,对各种不同框架训练的模型进行优化,以提供出色性能部署。工具套件中的深度学习工作台 (DL Workbench) 可将模型量化到较低精度。在此过程中,工具套件把使用较大的高精度 32 位浮点数(通常用于训练,会占用较多内存)的模型转换为 8 位整数,以优化内存使用和性能。将浮点数转换为整数能够在保持几乎相同精度的同时,显著提高人工智能推理速度1。该工具套件可以转换和执行在多种框架中构建的模型,包括 TensorFlow、MXNet、PyTorch、Kaldi 和开放神经网络交换 (Open Neural Network Exchange, ONNX) 生态系统所支持的任何框架。此外,用户还可获得经过预训练的公开模型,无需再自行搜寻或训练模型,从而加速基于英特尔® 处理器的开发和图像处理管道优化。

深度学习参考堆栈

面向人工智能推理的英特尔® 精选解决方案配备深度学习参考堆栈 (DLRS)。这是一个集成的高性能开源软件堆栈,已针对英特尔® 至强® 可扩展处理器进行优化,并封装在一个便捷的 Docker 容器中。DLRS 经过预先验证,并且配置完善,已包含所需的库和软件组件,因此有助于降低人工智能在生产环境中与多个软件组件集成所带来的复杂性。该堆栈还包括针对主流深度学习框架 TensorFlow 和 PyTorch 高度调优的容器,以及英特尔® 分发版 OpenVINO™ 工具包。该开源社区版本也有利于确保人工智能开发人员可轻松获得英特尔® 平台的所有特性和功能。

Kubeflow 和 Seldon Core

随着企业和机构不断积累在生产环境中部署推理模型的经验,业界逐步形成了一系列最佳实践的共识,即 “MLOps”,类似于 “DevOps” 软件开发实践。为了帮助团队应用 MLOps,面向人工智能推理的英特尔® 精选解决方案使用 Kubeflow。借助 Kubeflow,团队可在“零停机”的情况下顺利推出模型的新版本。Kubeflow 使用受到支持的模型服务后端(例如 TensorFlow Serving)将经过训练的模型导出到 Kubernetes。模型部署则可使用金丝雀测试或影子部署来实现新旧版本的并行验证。如果发现问题,除了进行跟踪,团队还可以使用模型和数据版本控制来简化根本原因分析。

为了在需求增加时保持快捷响应的服务,面向人工智能推理的英特尔® 精选解决方案提供负载平衡功能,能够跨节点将推理自动分片到可服务对象的可用实例中。多租户支持提供不同的模型,从而提高硬件利用率。最后,为了在运行人工智能推理的服务器和需要人工智能洞察的端点之间加速处理推理请求,面向人工智能推理的英特尔® 精选解决方案可以使用 Seldon Core 来帮助管理推理管道。Kubeflow 还与 Seldon Core 集成,从而在 Kubernetes 上部署深度学习模型,并使用 Kubernetes API 来管理部署在推理管道中的容器。

硬件选择

面向人工智能推理的英特尔® 精选解决方案结合了第二代英特尔® 至强® 可扩展处理器、英特尔® 傲腾™ 固态盘 (SSD)、英特尔® 3D NAND 固态盘和英特尔® 以太网 700 系列,因此您的企业可以在性能经过优化的平台上快速部署生产级人工智能基础设施,为要求严苛的应用和工作负载提供大内存容量。

第二代英特尔® 至强® 可扩展处理器

面向人工智能推理的英特尔® 精选解决方案具有第二代英特尔® 至强® 可扩展处理器的性能和功能。对于“基础”配置,英特尔® 至强® 金牌 6248 处理器在价格、性能和集成技术之间实现了出色的平衡,能够增强人工智能模型上的推理性能与效率。“增强”配置则采用专为实现更快人工智能推理而设计的英特尔® 至强® 铂金 8268 处理器。此外,在任一配置中也可选用更高型号的处理器。第二代英特尔® 至强® 可扩展处理器包含英特尔® 深度学习加速技术。这是一系列加速功能,可通过专门的矢量神经网络指令 (VNNI) 集来提高人工智能推理性能。该指令集使用一条单独指令即可完成之前需要三条单独指令才能进行的深度学习计算。

英特尔® 傲腾™ 技术

英特尔® 傲腾™ 技术填补了存储和内存层之间的重要空白,让数据中心能够更快地获取数据。这项技术颠覆了内存和存储层,能够在各种不同产品和解决方案中提供持久内存、大型内存池、高速缓存和存储。

英特尔® 傲腾™ 固态盘和英特尔® 3D NAND 固态盘

当缓存层运行在具备低时延和高耐用性的高速固态盘上时,人工智能推理更能充分发挥其性能。如缓存层采用高性能固态盘而非主流串行 ATA (SATA) 固态盘,则要求高性能的工作负载将受益匪浅。在英特尔® 精选解决方案中,缓存层采用英特尔® 傲腾™ 固态盘。英特尔® 傲腾™ 固态盘单位成本可提供较高的每秒读写次数 (IOPS),且具备低时延和高耐用性,再加上高达 30 次的每日整盘写入次数 (DWPD),是写入密集型缓存功能的理想选择2。容量层则采用英特尔® 3D NAND 固态盘,可提供出色的读取性能,并兼具数据完整性、性能一致性和驱动可靠性。

25 Gb 以太网

25 Gb 英特尔® 以太网 700 系列网络适配器能够提升面向人工智能推理的英特尔® 精选解决方案的性能。与使用 1 Gb 以太网 (GbE) 适配器和英特尔® 固态盘 DC S4500 相比,使用 25 Gb 以太网适配器配合第二代英特尔® 至强® 铂金处理器和英特尔® 固态盘 DC P4600 可提供高达前者 2.5 倍的性能34。英特尔® 以太网 700 系列提供经过验证的性能;其广泛的互操作性可在数据弹性和服务可靠性方面满足高质量阈值5。所有英特尔® 以太网产品均提供全球售前和售后支持,并在产品周期内提供有限质保。

经过基准测试验证的性能

所有英特尔® 精选解决方案均通过基准测试验证,已满足预先指定的工作负载优化性能的最低功能级别。在数据中心、网络边缘和云中的各类工作负载中,人工智能推理正逐渐成为其重要组成部分,因此英特尔选择使用标准的深度学习基准测试方法,并模拟真实场景进行测量和基准测试。

在标准基准测试中,每秒可处理的图像数量(即吞吐量)是在一个经过预先训练的深度残差神经网络 (ResNet 50 v1) 上测量的。该神经网络与使用合成数据的 TensorFlow、PyTorch 和 OpenVINO™ 工具套件上广泛使用的深度学习用例(如图像分类、定位和检测)密切相关。

为了模拟真实场景,测试启动了多个客户端,以模拟多个请求流。这些客户端将图像从外部客户端系统发送到服务器以进行推理。在服务器端,入站请求由 Istio 进行负载平衡。然后,请求将发送到一个可服务对象的多个实例,该对象包含通过 Seldon Core 运行的一条预处理、预测和后处理步骤管道。预测使用 OpenVINO™ 工具包中 Model Server 经过优化的 DLRS 容器映像完成。在请求通过管道后,推理结果将返回给提出请求的客户端。在此过程中测量出的吞吐量和时延可帮助确保此测试配置足以支持生产环境中的推理规模。

基础配置和增强配置

我们以两种参考配置(“基础配置”和“增强配置”)向您展示面向人工智能推理的英特尔® 精选解决方案。两者均已经过验证,可提供出色性能。这两种配置经过专门的设计和预测试,可提供出众的价值、性能、安全性和用户体验。最终客户也可与系统构建商、系统集成商,或是解决方案和服务提供商合作,根据企业和机构的需求与预算来定制这些配置。

“基础配置”具有出色的性价比,且已针对人工智能推理工作负载进行优化。“增强配置”使用高于“基础配置”的英特尔® 至强® 可扩展处理器型号,并增加一倍内存。表 1 列出了这两种配置的详细信息。

表 1. 面向人工智能推理的英特尔® 精选解决方案版本 2 的基础配置和增强配置


面向人工智能推理的英特尔® 精选解决方案的技术选择

面向人工智能推理的英特尔® 精选解决方案除了具有强大的英特尔® 硬件基础之外,还包含其他可进一步提高性能和可靠性的英特尔® 技术:

  • 英特尔® 高级矢量扩展 512(英特尔® AVX-512):一个 512 位指令集,能够提高要求苛刻的工作负载和用例(如人工智能推理)的性能。
  • 英特尔® 深度学习加速:第二代英特尔® 至强® 可扩展处理器引入的一系列加速功能,能够显著提高使用先进深度学习框架(如 PyTorch、TensorFlow、MXNet、PaddlePaddle 和 Caffe)构建的推理应用的性能。英特尔® 深度学习加速技术的基础是 VNNI,这是一种专用的指令集,使用一条单独指令即可完成之前需要三条单独指令才能进行的深度学习计算。
  • 英特尔® 分发版 OpenVINO™ 工具包:一款免费的软件套件,可帮助开发人员和数据科学家加速人工智能工作负载,同时简化从网络边缘到云端的深度学习推理和部署。
  • 英特尔® 数学核心函数库(英特尔® MKL):该函数库包含针对英特尔® 硬件优化过的主流数学运算实施,从而帮助应用充分利用英特尔® AVX-512 指令集。它可以广泛兼容一系列编译器、语言、操作系统、链接和线程模型。
  • 面向深度神经网络的英特尔® 数学核心函数库(英特尔® MKL-DNN):一个开源的性能增强型库,用于在英特尔® 硬件上加速深度学习框架。
  • 英特尔® 分发版 Python:借助集成的英特尔® 性能库(如英特尔® MKL)加速人工智能相关 Python 库(例如 NumPy、SciPy 和 scikit-learn),由此提高人工智能推理速度。
  • 框架优化:英特尔分别就 TensorFlow、MXNet 和飞桨平台与 Google、Apache 和百度开展合作,并积极研发 Caffe 和 PyTorch 相关技术,在数据中心内使用针对英特尔® 至强® 可扩展处理器的软件优化来提高深度学习的性能,并将继续增加来自其他行业领导者的框架。

英特尔® 至强® 可扩展处理器

第二代英特尔® 至强® 可扩展处理器:

  • 以经济高效且灵活的方式提供较高的可扩展性,涵盖多云环境到智能边缘
  • 建立无缝的性能基础,帮助加速数据带来的变革性影响
  • 支持突破性的英特尔® 傲腾™ 持久内存技术
  • 提升人工智能性能并帮助整个数据中心实现人工智能就绪
  • 提供硬件增强型平台保护和威胁监控

在符合行业标准的硬件上部署优化的高速人工智能推理

英特尔® 精选解决方案提供的工作负载优化配置均针对英特尔® 至强® 可扩展处理器进行过验证,是实现数据中心转型的捷径。选择面向人工智能推理的英特尔® 精选解决方案,企业和机构便能获得经过预先调优和测试,并且经过现实考验能够支持扩展的优化配置。这样 IT 部门就能在生产环境中快速、高效地部署人工智能推理。此外,选择面向人工智能推理的英特尔® 精选解决方案,IT 部门可在他们惯常部署和管理的硬件上实现高速人工智能推理。

您可访问 intel.cn/selectsolutions 了解更多信息,并向您的基础设施供应商咨询英特尔® 精选解决方案。

了解更多
英特尔®
精选解决方案网页:intel.cn/content/www/cn/zh/architecture-and-technology/intel-select-solutions-overview.html

英特尔® 至强® 可扩展处理器:intel.cn/xeonscalable

英特尔® 傲腾™
技术:intel.cn/content/www/cn/zh/architecture-and-technology/intel-optane-technology.html

英特尔®
固态盘数据中心家族:intel.cn/content/www/cn/zh/products/memory-storage/solid-state-drives/data-center-ssds.html

英特尔®
以太网产品:intel.cn/content/www/cn/zh/products/network-io/ethernet.html

英特尔® 以太网 700
系列:https://www.intel.cn/content/www/cn/zh/architecture-and-technology/ethernet.html

英特尔® 分发版 OpenVINO™
工具包:https://software.intel.com/zh-cn/openvino-toolkit

英特尔® 深度学习加速:intel.ai/increasing-ai-performance-intel-dlboost

英特尔®
框架优化:software.intel.com/content/www/cn/zh/develop/tools/frameworks.html

英特尔® 深度学习参考堆栈
(英文):https://software.intel.com/content/www/cn/zh/develop/blogs/intel-introduces-the-deep-learning-reference-stack.html

Kubeflow (英文):kubeflow.org

Seldon Core (英文):seldon.io/tech/products/core/

Seldon 部署 (英文):seldon.io/tech/products/deploy/

购买信息:intel.com/content/www/cn/zh/products/docs/select-solutions/where-to-buy.html

英特尔® 精选解决方案:逐个击破AI 推理部署痛点相关推荐

  1. 基于人工智能推理的英特尔® 精选解决方案

    企业日益希望借助人工智能(AI)增加收入,提高效率和推动产品创新.尤其需要指出的是,基于深度学习(DL)的 AI 用例带来了最实用.最深刻的洞察,其中一些用例可 推动多个行业的进步,如: •图像分类, ...

  2. 英特尔推出业界领先的AI与数据分析平台,全新处理器、内存、存储、FPGA解决方案集体亮相

    英特尔公司今日正式发布第三代英特尔®至强®可扩展处理器及全新的AI软硬件产品组合,旨在进一步助力客户在数据中心.网络及智能边缘环境中加速开发和部署AI及数据分析工作负载.作为业界首个内置bfloat1 ...

  3. 英特尔® 至强® 平台集成 AI 加速构建数据中心智慧网络

    英特尔® 至强® 平台集成 AI 加速构建数据中心智慧网络 SNA 通过 AI 方法来实时感知网络状态,基于网络数据分析来实现自动化部署和风险预测,从而让企业网络能更智能.更高效地为最终用户业务提供支 ...

  4. 用“芯”赋能数字孪生 | 数字冰雹出席英特尔渠道解决方案峰会

    12月13日-15日,第五届英特尔渠道解决方案峰会在成都召开,本次峰会汇聚了各行业知名的技术专家及企业高管,与英特尔一道深入探讨产品解决方案,分析行业痛点,分享渠道营销理念和未来科技的创新趋势.数字冰 ...

  5. 加速智能边缘应用落地 英特尔携生态伙伴展示AI计算盒参考设计最新成果

    7月28日,在以"同芯智远,共赢边缘"为主题的2021英特尔AI计算盒参考设计(以下简称"AI计算盒")主题分享会上,英特尔携手边缘AI领域的众多合作伙伴一同见 ...

  6. 加速智能边缘应用落地,英特尔携生态伙伴展示AI计算盒参考设计最新成果

    ↑ 收听本条新闻的音频版,请猛戳这里 ↑ 今日,在以**"同芯智远,共赢边缘"为主题的2021英特尔AI计算盒参考设计(以下简称"AI计算盒")主题分享会**上 ...

  7. 英特尔赋能智能边缘与AI产业,践行环境可持续发展

    近日,在2021世界人工智能大会(WAIC 2021)期间,英特尔公司物联网事业部中国区首席技术官及高级首席工程师张宇博士以"保护地球,从'芯'起步"为主题发表演讲,全面阐述了英特 ...

  8. 英特尔与京东联合强化AI武器:让创新更专注

    2020-12-01 13:03:12 在数学领域,特征值与特征向量是十分重要的两个概念,高校课本上都表明这两个概念在工程技术方面有着广泛应用. 但还不止于此,在蓬勃发展的数字化智能时代,特征值和特征 ...

  9. 英特尔人工智能副总裁:AI不是一种技能,而是一种对于工作的描述

    来源:网络大数据 人工智能领域的迅速发展,相关人才不能满足需求已经成为业界共识.有报道称,因为人工智能工程师庞大的缺口,一些公司为了获得人才不得不支付数百万美元的薪水.如何满足对人工智能工程师不断增长 ...

最新文章

  1. 【STM32 .Net MF开发板学习-25】LED数码管显示
  2. 汇编MIPS指令集 add两数相加、syscall输出字符串、bgt分支语句、ble循环语句
  3. mysql ondelete_MySQL on delete cascade语句
  4. php如何获取服务器时间_php如何获取当前日期
  5. 强化学习《基于价值 - Dueling Q-Learning》
  6. 世界坐标系到观察坐标系的变换步骤_带你轻松认识不同坐标系下向量的“变脸”——基变换...
  7. 2020 CSDN 博客之星投票已开启,请大家为我投票,多谢啦
  8. 《Ray Tracing in One Weekend》——Chapter 0: Overview
  9. Linux命令(二)
  10. 按键精灵修改html内容,按键精灵批量开网页点击
  11. Vuecli 城市三级联动的使用
  12. Spring中Resource接口详解
  13. matlab 坐标点标记符号表
  14. 安卓手机和苹果手机如何设置HTTP代理IP上网
  15. google、bing ,baidu 等搜索引擎 查询参数
  16. Rosetta Stone 罗赛塔 罗塞塔 石碑
  17. BIOS功能调用表格
  18. AI算法在云音乐搜索的应用
  19. 【小5聊】Chrome谷歌浏览器下载任何东西都提示 - 失败 - 下载错误的解决方法
  20. 撕开帝国裂缝的互联网+饮料公司——元气森林是如何做的?

热门文章

  1. Redis-三种特殊的数据类型-geospatial
  2. 十分流行自举法(Bootstrapping )为什么有效
  3. matlab能倒入crv文件么,[转载]matlab GUI 编程——mcc转换m文件到应用程序
  4. 一起学爬虫——使用xpath库爬取猫眼电影国内票房榜
  5. 部队物资管理应用RFID技术-基于RIFD技术的部队物资仓库管理系统
  6. 深度学习与PyTorch笔记23
  7. 如何查找c语言编程大题,c语言编程大题
  8. 人工智能AI未来趋势
  9. 58同城——青龙脚本
  10. vue 中格式化时间 过滤器格式化时间