向AI转型的程序员都关注了这个号????????????

机器学习AI算法工程   公众号:datayx

为什么我们开始关注和重视推理性能的优化。

  • 天时
    深度学习的上半场主题是自证, 数据科学家们设计出各种各样的模型结构(topology architecture), 并用海量的数据喂养它, 最终养成能够解决各行各业不同问题的高指标模型。经过这一阶段,基本证明了深度学习作为一种新的方法,能够解决一些实际场景之前难解或不可解的问题。基于此,上半场的主要工作在训练模型。
    随着上半场的推进,目前整个社会对深度学习确实是很多问题的有效解决方案已没有异议。那么,势必推进到下半场,下半场的主题是落地,也就是把训练出的模型部署到实际的应用场景中,产生经济或社会效益。所以,下半场的主要工作在推理阶段。

  • 地利
    从市场来说,我们可以用一个粗略的方法来估计训练和推理的市场容量:训练市场规模和数据科学家的规模成正比;而推理市场规模和成正比。孰大孰小一目了然。所以对平台、硬件厂商而言,不管你在上半场是失败者或是成功者,下半场都要打起精神,认真面对。

人和
2018年后半端,产业界开始有越来越多的投入在深度学习推理引擎上。这些投入是有其必要性的。
其一是深度学习训练框架的碎片化。

为什么会碎片化

  • 出于站位的原因各大公司都推出了自己训练框架(Google的TensorFlow, Facebook的PyTorch, Amazon的MxNet, 百度的PaddlePaddle等)。

  • 算法科学家在选择模型训练框架上有多样性和倾向性。这是跟算法科学家所在社区(如计算机视觉算法喜欢PyTorch, NLP的喜欢TensorFlow etc.)和标杆性模型是用什么框架实现等这些元素相关的。

这种碎片化,导致了高效部署上的实际困难。首先,生产环境需要支持各种各样、各个版本的框架,而各种框架之间又存在依赖上的不兼容性,导致了生产环境的混乱、不稳定。同时也使得生产环境中的推理的性能优化变得碎片化和难以为继。

其次是软件设计上的。我们知道现有的AI框架主要是为算法科学家设计的,这个设计定位使得AI框架在设计取舍上会倾向于灵活性,即使得算法科学家能够用框架搭出尽可能多的新模型架构。这就要求在算子设计颗粒度上要尽可能小。而在生产环境中,主诉求从灵活变成了效率,因为成本很重要。而效率要求做一些激进的优化,如做一些大的operator fusion,数学变换以及微架构友好的优化, 从而减少调度开销和微架构开销。可以看到生产环境和研究环境下对框架设计的要求是在“灵活和效率”两大矛盾的两端,这种矛盾是很难调和的。基于以上,在这种情况下,为生产环境专门做一个效率为先的框架是必要的,这一块也有越来越多的工程师的投入。
一个典型的推理引擎栈如下:

一些初期的探索和经验

我们在2017-2020的时间窗口,在推理的性能优化方面,做了一些实际的工作。在这些实际工作的基础上,也渐渐总结出一些方法论上的东西。现在分享出来,抛砖引玉。

推理优化四部曲

我们对做过的优化工作总结梳理后,把推理优化工作归成四类:算子优化,图优化,模型压缩和部署优化。下面一一解释。

算子优化

算子优化的题中之意就是优化单算子的性能,方法无非是算法优化和微架构优化。

  • 算法优化。对同一个算子可能有不同的算法去实现它。举个例子,对卷积算法我们常见的就有:矩阵乘法,直接卷积法,Winograd变换法,FFT变换法。需要我们针对目标问题,分析并实现合适的算法,来达到最佳性能。

  • 微架构优化。微架构优化主要焦点是如何充分利用好微架构的内置加速器的能力去最大化算子的性能。如Intel Xeon CPU 里面一般都有SIMD(Single Instruction Multiple Data)加速器(如AVX-512的FMA(Fused Multiply-Add)加速)。如何充分利用并最大化这些SIMD加速器的利用率,是微架构优化需要做的。下面展示了给出了一个如何充分利用AVX-512 VNNI的能力进行INT8直接卷积计算的一个例子。

可以看出,为了最大化AVX-512的吞吐,需要在计算方案和memory layout的协同优化。在该方案中,我们可以一个cycle完成16个输出点的计算。

图优化

图优化主要通过子图变换和算子融合的方式来达到减少计算量或者其他系统开销(如访存开销),从而达到性能优化的目的。图优化主要是希望在不影响模型的数值特性的基础上,通过图变换达到简化计算、资源开销,提升性能,所以是性能优化时的首选方法之一。下面列举几例。

  • 子图变换
    子图变换主要是通过数学变换的手段对图进行精简,从而减少计算和调度开销。常见的有常数折叠,公共子表达式折叠(common subexpression elimination (CSE) )以及算术变换。

    • 常数折叠 (Constant Folding)

算子融合 (Operator Fusion/Remapper)
算子融合基于对深度学习拓扑结构模式的观察。深度学习算子按其对资源的需求可以分为两类:

  • 计算密集型算子,这些算子的时间绝大部分花在计算上,如卷积、全连接等。

  • 访存密集型算子,这些算子的时间绝大部分花在访存上,他们大部分是element-wise算子, ReLU,eltment-wise sum。

在典型的深度学习模型中,一般计算密集型和访存密集型算子是相伴出现的,最简单的例子是”Conv + ReLU“相伴出现。这时候我们可以通过fusion来实现“in register computing”,从而减少访存密集型算子的访存,减少内存访问延时和带宽压力,提高推理效率。

  • 例1:“Conv + Conv + Sum + Activation” 融合
    这是residual block 里一个常见的pattern,我们可以采用如下融合方案。

另外一种可以算作一种特殊融合的是,memory layout propagation。针对不同特点的计算平台和不同的算子,为了追求最好的性能匹配,一般都需要选择不同的tensor内存布局(memory layout),而这些layout可能跟框架缺省的内存布局是不一样的。在这这情况下,之前的做法是算子在做完后加入一个reorder操作,把memory layout转换回框架的缺省内存布局,这就引入了额外的reorder操作。以下图为例,在AVX-512平台上conv算子在nchw16C的内存排布时是性能最优的,所以可以看到conv kernel输出的tensor layout是nchw16C,然后通过一个reorder操作转回了框架缺省的nchw,紧接着,后面又是一个conv,它需要nchw16C的输入,所以又做了一个nchw->nchw16C的reorder。我们很容易看出,虚线框内的两个reorder操作互为逆操作,可以相互抵消。Layout Propagation就是用于识别出相邻的互逆reorder,并消除它们,从而减少了无效的memory操作。

模型压缩

上面的都是无损的,当这三点都做完了后,如果还需要额外的性能增益,这时候需要考虑模型压缩方案。模型压缩(Compression)主要手段有:模型量化、模型蒸馏和模型稀疏化。

  • 模型量化。模型量化主要是通过降低模型中tensor和weights精度的手段,从而减少计算需求和数据存储与传输需求,来达到加速的目的。主要方法分两派:一是训练后量化(Post-training Quantization),二是量化感知训练(Quantization-Aware Training)。这个topic比较大,可以另讲。

  • 模型蒸馏。模型蒸馏采用的是迁移学习的方法,通过采用预先训练好的复杂模型(Teacher Model)的输出作为监督信号去训练另外一个简单的网络(Student Model),最后把Student Model用于推理。

  • 模型稀疏化。稀疏化首先是Han Song做FPGA的时候提出来的,这个时期的稀疏化就是纯稀疏化,减少synapses。这种稀疏化,适合FPGA,相当于减少了电路。但对于通用计算平台(如CPU,GPU等),不规则稀疏矩阵计算最终还是要落地到规则的计算单元上,这个时候是性能变好还是变差取决于problem size和如何把问题映射到计算单元上的方案,性能是提高还是降低是不确定的。所以后面业界的研究重点就转向了结构稀疏化。

部署优化

前面三类优化可以认为是静态优化,是与资源分配无关的。但当这些静态优化部署在平台上的时候,就产生了executable和部署环境的交互,这就产生了资源分配和调度的问题。部署优化主要通过调整模型在部署时的资源分配和调度的参数来进一步优化性能。下面的例子从一个角度说明了部署优化的重要性和带来的价值,这里仅仅调整了NUMA的参数就带来了56%的吞吐提升。

CPU平台上常见的运行时优化knobs有:

  • system knobs

    • NUMA

    • core affinity

    • Turbo

    • Hyper Threading

  • framework-specific knobs

    • inter_op_parallelism_threads

    • intra_op_parallelism_threads

    • TensorFlow

  • solution knobs

    • data parallelism

    • multi-instance

    • data & inference pipeline

我们可以把把部署优化问题建模为一个约束最优化问题,从而利用自动化的寻优算法来自动化这个过程,在这方面做了有益的探索,我们在使用的过程中也确实获得了不错的性能增益。

初期的工作起到了拓荒的作用,在短期也解决了产品和业务的特定的痛点的同时更重要的是为系统化工作提供洞察力和原始积累。Case-by-case的优化理论上提供了极致性能(efficiency)的可能性,但同时也大大约束了生产力(productivity),从而进一步束缚了工业落地。我们可以类比汇编语言时代,虽然汇编语言是效率的王者,但是没有高级语言和编译技术的出现并提供合理的开箱性能(Out-Of-Box),我们无法把人从汇编优化中解放出来,去做更有价值的应用和领域,从而推动技术和商业的发展。同样的,如果我们深信AI会是未来的生产力赋能工具,我们需要首先解决AI落地本身的低效问题。这也是DSA(Domain Specific Architecture)和DSC(Domain Specific Compiler)出现的时代背景和必然性。我们需要凝练、泛化、固化经验,让它软件化、工具化、自动化,赋能DSA/DSC,这才是最终的路径。


阅读过本文的人还看了以下文章:

TensorFlow 2.0深度学习案例实战

基于40万表格数据集TableBank,用MaskRCNN做表格检测

《基于深度学习的自然语言处理》中/英PDF

Deep Learning 中文版初版-周志华团队

【全套视频课】最全的目标检测算法系列讲解,通俗易懂!

《美团机器学习实践》_美团算法团队.pdf

《深度学习入门:基于Python的理论与实现》高清中文PDF+源码

特征提取与图像处理(第二版).pdf

python就业班学习视频,从入门到实战项目

2019最新《PyTorch自然语言处理》英、中文版PDF+源码

《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码

《深度学习之pytorch》pdf+附书源码

PyTorch深度学习快速实战入门《pytorch-handbook》

【下载】豆瓣评分8.1,《机器学习实战:基于Scikit-Learn和TensorFlow》

《Python数据分析与挖掘实战》PDF+完整源码

汽车行业完整知识图谱项目实战视频(全23课)

李沐大神开源《动手学深度学习》,加州伯克利深度学习(2019春)教材

笔记、代码清晰易懂!李航《统计学习方法》最新资源全套!

《神经网络与深度学习》最新2018版中英PDF+源码

将机器学习模型部署为REST API

FashionAI服装属性标签图像识别Top1-5方案分享

重要开源!CNN-RNN-CTC 实现手写汉字识别

yolo3 检测出图像中的不规则汉字

同样是机器学习算法工程师,你的面试为什么过不了?

前海征信大数据算法:风险概率预测

【Keras】完整实现‘交通标志’分类、‘票据’分类两个项目,让你掌握深度学习图像分类

VGG16迁移学习,实现医学图像识别分类工程项目

特征工程(一)

特征工程(二) :文本数据的展开、过滤和分块

特征工程(三):特征缩放,从词袋到 TF-IDF

特征工程(四): 类别特征

特征工程(五): PCA 降维

特征工程(六): 非线性特征提取和模型堆叠

特征工程(七):图像特征提取和深度学习

如何利用全新的决策树集成级联结构gcForest做特征工程并打分?

Machine Learning Yearning 中文翻译稿

蚂蚁金服2018秋招-算法工程师(共四面)通过

全球AI挑战-场景分类的比赛源码(多模型融合)

斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

python+flask搭建CNN在线识别手写中文网站

中科院Kaggle全球文本匹配竞赛华人第1名团队-深度学习与特征工程

不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  


机大数据技术与机器学习工程

 搜索公众号添加: datanlp

长按图片,识别二维码

深度学习推理性能优化,一个越来越重要的话题相关推荐

  1. 工程之道,解读业界最佳的深度学习推理性能优化方案

    本文转载自旷视研究院 MegEngine「训练推理一体化」的独特范式,通过静态图优化保证模型精度与训练时一致,无缝导入推理侧,再借助工业验证的高效卷积优化技术,打造深度学习推理侧极致加速方案,实现当前 ...

  2. 工程之道,深度学习推理性能业界最佳优化实践

    MegEngine「训练推理一体化」的独特范式,通过静态图优化保证模型精度与训练时一致,无缝导入推理侧,再借助工业验证的高效卷积优化技术,打造深度学习推理侧极致加速方案,实现当前业界最快运行速度.本文 ...

  3. 深入云原生 AI:基于 Alluxio 数据缓存的大规模深度学习训练性能优化

    作者 | 车漾(阿里云高级技术专家).顾荣(南京大学 副研究员) 导读:Alluxio 项目诞生于 UC Berkeley AMP 实验室,自开源以来经过 7 年的不断开发迭代,支撑大数据处理场景的数 ...

  4. 阿里云原生实践:基于 Alluxio 数据缓存的大规模深度学习训练性能优化

    导读:Alluxio 项目诞生于 UC Berkeley AMP 实验室,自开源以来经过 7年的不断开发迭代,支撑大数据处理场景的数据统一管理和高效缓存功能日趋成熟.然而,随着云原生人工智能(Clou ...

  5. 硬件平台上深度学习自动内核优化

    硬件平台上深度学习自动内核优化 对于AI开发人员来说,在各种硬件平台上优化深度神经网络的性能仍然是一个难题.在系统支持方面,在这里面临着许多问题:将训练有素的模型从多个前端(例如Tensorflow, ...

  6. NVIDIA教你用TensorRT加速深度学习推理计算 | 量子位线下沙龙笔记

    主讲人:Ken(何琨)| NVIDIA开发者社区经理 张康 屈鑫 编辑整理 量子位 出品 | 公众号 QbitAI 12月22日,量子位联合NVIDIA英伟达举行了线下交流会,跟现场近百位开发者同学共 ...

  7. 如何使用TensorRT加速深度学习推理

    文章目录 1.TensorRT 简介 2.一个简单的TensorRT示例 3.简要代码演练 3.1.批量输入 4.配置文件 5.优化您的应用 6.使用混合精度计算 7.设置最大工作区大小 8.重用Te ...

  8. MegEngine推理性能优化

    MegEngine推理性能优化 MegEngine「训练推理一体化」的独特范式,通过静态图优化保证模型精度与训练时一致,无缝导入推理侧,再借助工业验证的高效卷积优化技术,打造深度学习推理侧极致加速方案 ...

  9. NVIDIA TensorRT高性能深度学习推理

    NVIDIA TensorRT高性能深度学习推理 NVIDIA TensorRT™ 是用于高性能深度学习推理的 SDK.此 SDK 包含深度学习推理优化器和运行时环境,可为深度学习推理应用提供低延迟和 ...

最新文章

  1. 这样规范写代码,同事直呼“666”
  2. Serverless 下的微服务实践
  3. 邮件回复功能失效 谁遇到过?
  4. WINDOWS SERVER 2003 之域重命名
  5. 【超参数寻优】量子粒子群算法(QPSO) 超参数寻优的python实现
  6. matlab怎么在c 中调用,在C中调用Matlab (转)
  7. Spring boot 连接Redis实现HMSET操作
  8. 如何注册CUBA Studio
  9. codeforces 792CDivide by Three(两种方法:模拟、动态规划
  10. JS与Jquery学习笔记(二)
  11. 关于 printf(%*.*s/n,m,n,ch) 的问题
  12. USB OTG原理简述实际的USB连接线中,是没有USB_ID这根线的。 都是在接口部分直接拉死的。两用OTG设备都有一个Mini-AB插槽,所以一个Mini-A至Mini-B电缆可以直接将两个连接
  13. 11行代码实现滚动公告栏
  14. 玻璃纤维防火毯的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
  15. WebDriverException: Message: unknown error: cannot find Chrome binary(ChromeDriver及谷歌官网下载地址)
  16. 生命旅程中何生命个体
  17. “我靠这4个项目,拿到了年薪30万+的大厂Offer”
  18. 手机换IP的方法--手机PPTP
  19. 事件委托、动画、插件
  20. 133、初沸点的概念

热门文章

  1. 使用OUTPUT从句从SQL Server表删除和归档大量记录
  2. 移动终端如何远程接入企业的核心系统?
  3. 单实例数据库迁移到rac环境(四)下
  4. 交换机、路由器、PIX密码恢复
  5. 远程桌面提示RPC不可用
  6. 数格子算面积的方法_面试小学数学经典教案:《什么是面积》
  7. C++复习(虚函数)
  8. 金字塔测试早已过时!
  9. html新标准,HTML 5新标准将会在2022年正式发布
  10. python一个函数可以有参数也可以没有参数_Python:有和没有关键字参数的lambda函数行为?...