为了支持云开发人员从云端到边缘的旅程,我们构建了多个加速器。我们将在本博文中介绍其中三个加速器。您可以使用 AWS SageMaker 在 AWS 云中构建和训练模型,然后使用 OpenVINO™ 工具套件模型优化器优化这些模型。优化后,您将能够在英特尔® DevCloud 中,跨英特尔® DevCloud 的所有英特尔® 硬件对模型进行性能指标评测。最后,我们将介绍如何为英特尔® OpenVINO™ 工具套件分发版和 AWS Greengrass 设置边缘环境,以及如何使用 Greengrass Python Lambda 部署应用,该软件可在边缘利用英特尔® OpenVINO™ 工具套件分发版执行图像分类和对象检测。

英特尔® OpenVINO™ 工具套件分发版概述
得益于 AI 领域的最新发展,开发人员如今在框架、模型和硬件方面有多种选择。然而,在与正确的硬件加速器及其相关软件一起使用时,基础硬件可以帮助开发人员提高性能。英特尔® OpenVINO™ 工具套件分发版就是这样一款加速器,借助预优化的模型,它可帮助开发人员最大限度提高推理性能。

具体而言,英特尔® OpenVINO™ 工具套件分发版是一款全面的工具套件,支持快速开发可模拟人类视觉的应用和解决方案。该工具套件基于卷积神经网络(CNN),可在英特尔® 硬件中扩展 CV 工作负载,实现卓越性能。
更多信息请访问 OpenVINO™ 工具套件概述。

至于可提高性能的硬件选项,英特尔拥有 CPU、VPU 和 FPGA 等可扩展产品组合,能够满足您推理解决方案的需求。表 1 向我们展示了英特尔® 酷睿® i7 处理器的高性能输出。您可以看到使用英特尔® OpenVINO™ 工具套件分发版的优势,对于某些模型,您可借助该分发版实现高达每秒 1200 帧的性能。更多信息请访问系统配置和更多性能指标评测。

了 解 如 何 在 AWS SageMaker 中 使 用OpenVINO™ 工具套件模型优化器
现在,我们将介绍如何在 AWS SageMaker 中使用 OpenVINO™ 工具套件模型优化器轻松优化模型。为帮助您轻松进行模型优化,我们开发了 python 函数, 该函数简化并实现了内联模型转换。它使用 OpenVINO™ 工具套件 docker 容器来转换 TensorFlow 和 Keras 模型 1。通过 OpenVINO IR 转换,您只需编写一次推理代码,然后以 IR 格式使用不同框架的模型。为方便起见,我们提供了支持的 TFHub 模型及其输入形状。

立即开始

1.创建一个 SageMaker Notebook 并将 Github repo 克隆到您的 SageMaker Notebook 实例

2.打开 SageMaker Notebook,转向 aws / mo-utility 目录

3.转向 aws / mo-utility 目录后,您将看到以下文件:

显示更多显示更少查看全部

将 Keras 应用模型转换为 OpenVINO™ IR的流程一览;将 Tensorflow Hub 应 用 模 型 转 换 为OpenVINO™ IR 的流程一览;将对象检测模型转换为 OpenVINO™ IR 的流程一览
下一步:

在下一节中,我们将探讨如何在众多英特尔® 硬件中使用面向边缘的英特尔®
DevCloud 对模型进行性能指标评测。

英特尔® DevCloud,一键 – 0 成本,用于在英特尔® 硬件中评估深度学习模型的性能
您是否想知道您的模型在不同英特尔® 硬件上的性能如何?英特尔提供了设备沙盒英特尔® DevCloud,可帮助您在最新的英特尔® 硬件系列中免费开发、测试
和运行您的工作负载。在能够一站式访问所有最新的英特尔® 硬件后,您可能希望了解哪款英特尔® 硬件最适合您。我们带来了如此强大的功能,能够帮助您明确哪款硬件最适合您的深度学习模型。

在上一节中,您了解了如何将 TensorFlow 和 Keras 图像分类模型,以及TensorFlow 对象检测模型转换为 OpenVINO IR 格式,并将其存储在 S3 存储桶中。

在本节中,您将了解如何直接从 S3 存储桶中获取 OpenVINO IR 模型,并使用提供的示例 Jupyter notebook,在英特尔® DevCloud 中和不同硬件上对这些模型进行一键式性能指标评测。

准备在您的模型上尝试一下吗?请查看在面向边缘的英特尔® DevCloud 上对示
例进行性能指标评测。您只需提供 AWS 凭证和 S3 存储桶,我们就会为您从

S3 存储桶中提取模型。

示例 Jupyter Notebook 概览
在运行 Jupyter Notebook 中的所有单元之后,您将通过详细的表格输出了解模型在哪种硬件上可实现最佳性能,类似于以下内容:

下一步:

在下一节中,我们将讨论如何使用英特尔® 边缘软件中心部署推理应用和

OpenVINO™ 模型。

使用英特尔® 边缘软件中心部署推理应用和OpenVINO™ 模型
在多个不同的英特尔® 硬件上对模型进行性能指标评测后,您必须等待在边缘部署模型。这正是英特尔® 边缘软件中心的用武之地。英特尔® 边缘软件中心能够
帮助像您这样的开发人员更快速、更自信地定制、验证和部署用例特定解决方案。

英特尔的边缘软件中心拥有多个用例,能够为您带来更便捷的体验。Amazon
Web Services(AWS)* 云端到边缘管道就是这样的一个用例。该用例支持一

键部署即用型云端到边缘推理管道,以便在边缘使用 AWS IoT Greengrass 和

OpenVINO™ 工具套件,并在云端使用 AWS IoT。通过使用 AWS Greengrass 中包含的功能,您可以部署到多个边缘设备。该用例还包括用于图像分类和对象检测的示例 AWS IoT Greengrass Lambda。
工作原理

该用例使用了英特尔® OpenVINO™ 工具套件分发版中包含的推理引擎,能够帮助云开发人员使用加速器在英特尔物联网边缘设备上部署推理功能。

这些功能可使用 AWS Greengrass 将视觉分析从云端安全无缝地迁移到边缘。

立即开始

准备好在边缘进行推理?从英特尔® 边缘软件中心下载 Amazon Web Services
(AWS)* 云端到边缘管道。下载此用例后,请遵循文档建立云端到边缘的管道

并进行边缘推理。

脚注

当前,英特尔® OpenVINO™ 工具套件分发版仅支持部分 TFHub 和 Keras 模型

通知和免责声明

在性能测试过程中使用的软件及工作负载可能仅针对英特尔® 微处理器进行了性能优化。

性能测试(如 SYSmark 和 MobileMark)使用特定的计算机系统、组件、软件、操作和功能进行测量。 上述任何要素的变动都有可能导致测试结果的变化。 您应该参考其他信息和性能测试以帮助您全面评估正在考虑的采购,包括产品在与其他产品结合使用时的性能。 有关详细的完整信息,请访问 www.intel.com/benchmarks。

性能结果基于截至配置中所示日期的测试,可能并不反映所有公开发布的安全更新。 有关配置详细信息,请参阅备份页。 没有任何产品或组件是绝对安全的。您的成本或结果可能有所差异。
英特尔技术可能需要启用硬件、软件或激活服务。

©英特尔公司版权所有。 特尔、英特尔标识以及其他英特尔商标是英特尔公司或其子公司在美国和/或其他国家的商标。 其他的名称和品牌可能是其他所有者的资产。

英特尔编译器针对英特尔微处理器的优化程度可能与针对非英特尔微处理器的优化程度不同。这些优化包括 SSE2、SSE3 和 SSSE3 指令集和其他优化。对于在非英特尔制造的微处理器上进行的优化,英特尔不对相应的可用性、功能或有效性提供担保。此产品中依赖于处理器的优化仅适用于英特尔微处理器。某些不是专门面向英特尔微体系结构的优化保留专供英特尔微处理器使用。请参阅相应的产品用户和参考指南,以了解关于本通知涉及的特定指令集的更多信息。
英特尔尊重人权,坚决与侵犯人权的行为划清界限。请参阅英特尔《全球人权原则》。. 英特尔的产品和软件仅限用于不会导致违反国际公认人权或成为侵权推手的应用。

  • OpenVino™ 概述
  • SageMaker 中的 OpenVINO™ 优化器
  • 转换 Keras 应用
  • 转换 TensorFlow Hub
  • 转换对象检测
  • 0 成本性能评估
  • Jupyter Notebook
  • 使用边缘软件中心进行部署
  • 公司信息

关注英特尔边缘计算社区,表示您确认您已年满 18 岁,并同意向英特尔分享个人信息,以便通过电子邮件和电话随时了解最新英特尔技术和行业趋势。您可以随时取消订阅。英特尔网站和通信内容遵守我们的隐私声明和使用条款。

在英特尔® 硬件上加快推理速度的几个步骤相关推荐

  1. 在英特尔硬件上部署深度学习模型的无代码方法 关于OpenVINO深度学习工作台的三部分系列 第二部

    作者 Taylor, Mary, 翻译 李翊玮 关于 OpenVINO™ 深度学习工作台的三部分系列文章 关于该系列 了解如何转换.微调和打包 推理就绪的 TensorFlow 模型,该模型针对英特尔 ...

  2. 在英特尔硬件上部署深度学习模型的无代码方法 OpenVINO 深度学习工作台的三部分系列 - CPU AI 第二部

    作者 Taylor, Mary, 翻译 李翊玮 关于该系列 了解如何转换.微调和打包 推理就绪的 TensorFlow 模型,该模型针对英特尔®硬件进行了优化,仅使用 Web 浏览器.每一步都在云中使 ...

  3. 在英特尔硬件上部署深度学习模型的无代码方法 OpenVINO 深度学习工作台的三部分系列文章 - CPU AI 第一部

    作者 Taylor, Mary, 翻译 李翊玮 关于该系列 了解如何转换.微调和打包推理就绪的 TensorFlow 模型,该模型针对英特尔®硬件进行了优化,仅使用 Web 浏览器.每一步都在云中使用 ...

  4. 利用 AWS SageMaker 与英特尔 软硬件技术加快 AI 推理速度的步骤

    为了支持云开发人员从云端到边缘测的旅程,我们构建了多个开发工具以加速开发.我们将在本博文中介绍其中三个开发工具.您可以使用 AWS SageMaker 在 AWS 云中构建和训练模型,然后使用Open ...

  5. AWS+OpenVINO|利用AWS SageMaker与英特尔®软硬件技术加快AI推理速度的步骤

    为了支持云开发人员从云端到边缘测的旅程,我们构建了多个开发工具以加速开发.我们将在本博文中介绍其中三个开发工具. 您可以使用 AWS SageMaker 在 AWS 云中构建和训练模型,然后使用 Op ...

  6. 在英特尔 CPU 上加速 Stable Diffusion 推理

    点击蓝字 关注我们,让开发变得更有趣 前一段时间,我们向大家介绍了最新一代的 英特尔至强 CPU (代号 Sapphire Rapids),包括其用于加速深度学习的新硬件特性,以及如何使用它们来加速自 ...

  7. 英特尔® 硬件加速执行管理器安装指南 — Mac OS X*

    介绍 本文将指导您安装英特尔® 硬件加速执行管理器(英特尔® HAXM),这是一款可以使用英特尔® 虚拟化技术(VT)加快 Android* 开发速度的硬件辅助虚拟化引擎(管理程序). 前提条件 英特 ...

  8. 当CPU巨头英特尔盯上GPU:4个月6次出手,从游戏到数据中心市场全面点燃

    梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 从游戏.短视频到人工智能.工业仿真再到元宇宙,这些当下风口都离不开同一种芯片-- GPU. 根据IDC数据,2019年时我国AI市场每台服务器配置 ...

  9. CPU巨头英特尔盯上GPU会咋样?

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 从游戏.短视频 ...

最新文章

  1. 将类的成员函数作为回调函数(外一篇:友元函数)
  2. 亿级流量电商详情页系统实战:缓存架构+高可用服务架构+微服务架构
  3. THE REAL DRAGON WARRIORS
  4. PHP权重算法-用于游戏根据权限来随机物品
  5. SQL数据库备份还原命令
  6. php 数组导出csv_php导出百万数据到csv
  7. php旧物交易开源代码_二手市场交易网站PHP
  8. 文字识别:Tesseract OCR
  9. 影创SDK☀️四、开发注意事项
  10. 记录开发内容demo-java支付宝提现
  11. 云服务器哪家好?阿里云国际版还是华为云国际版?
  12. pandas去除重复列
  13. android 高德地图之poi搜索功能的实现
  14. 在西安,1000万人的城市,有多少家IT培训机构?
  15. html手机端一键复制,一键粘贴复制功能-兼容IE9+及其移动端-clipboard.js
  16. SQLite3 dll加载失败问题解决
  17. CAP理论为什么不能同时满足
  18. MySQL图形界面创建数据库
  19. 小规模企业如何做账 e-mail_小规模纳税人内资企业如何入帐?
  20. k8s学习(二十) helm的基本使用

热门文章

  1. c# jarray 快速提取_C# JArray与JObject 的使用
  2. C#中关于JSON数据的解析方式-JArray和JObeject:Error reading JArray from JsonReader. Current JsonReader item
  3. 模拟登陆 Selenium
  4. 没有“熊猫“的熊猫快餐,凭什么能成为中式快餐第一?
  5. Microsoft Dynamic CRM开发可配置接口(WCF/Webservice)
  6. 2021.4月28日24时新版本微信小程序登录授权新方法
  7. 初识OpenGL (-)VAOVBO
  8. 相对路径的当前目录、上级目录、下级目录怎么表示?
  9. NANDFLASH的学习(一)
  10. 程序设计C语言函数定义,编程函数的定义之C语言