混合精度训练-Pytorch
目录
- 1、需求解读
- 2、F16和FP32的区别与联系
- 3、F16优点简介
- 4、F16缺点简介
- 5、混合精度训练代码实战
- 5.1 代码实现
- 5.2 代码解析
- 6、F16训练效果展示
- 7、个人总结
- 参考资料
- 注意事项
1、需求解读
作为一名算法工程师,我们经常会遇到训练网络的事情,当前训练网络的整个过程基本上都是在N卡上面执行的,当我们的数据集比较大时,训练网络会耗费大量的时间。由于我们需要使用反向传播来更新具有细微变化的权重,因而我们在训练网络的过程中通常会选用FP32类型的数据和权重。说了这么多,那么混合精度到底是什么呢,有什么用呢?
简而言之,所谓的混合精度训练,即当你使用N卡训练你的网络时,混合精度会在内存中用FP16做储存和乘法从而加速计算,用FP32做累加避免舍入误差。它的优势就是可以使你的训练时间减少一半左右。它的缺陷是只能在支持FP16操作的一些特定类型的显卡上面使用,而且会存在溢出误差和舍入误差。
2、F16和FP32的区别与联系
联系:
- FP32和FP16都是用来表示某一个数值;
- FP32和FP16都是由符号位、指数和尾数一起组成;
区别:
- FP32由1位符号位、8位指数和23位尾数组成,FP16由1位符号位、5位指数和10位尾数组成;
- FP32能够表示的范围是1.4×10−45<x<3.4×10381.4 \times 10^{-45}<x<3.4 \times 10^{38}1.4×10−45<x<3.4×1038,FP16能够表示的范围是5.96×10−8<x<655045.96 \times 10^{-8}<x<655045.96×10−8<x<65504。即FP16最大能够表示的数字是65503;
- FP32能够更加准确的表示某一个数字;
3、F16优点简介
优点1-FP16计算速度更快、更加节约内存
上图展示了FP16和FP32在内存消耗上面的不同之处。通过观察上图我们可以得出:
- 计算同样的操作,FP16可以获得8倍的加速;
- FP16能够获得2倍左右的内存扇出;
- FP16能够节省1/2的内存资源;
优点2-FP16可以使用上特定显卡中专门为加速所设计的Tensor Core
上图展示了执行卷积的过程(乘操作和加操作)。使用FP16执行成操作,然后使用FP16或者FP32执行乘操作。与使用FP32计算相比,在Volta V100(该架构中存在Tensor Core,支持FP16操作)上面可以获得8倍的性能提速,最终达到125TFlops的扇出。
4、F16缺点简介
缺点1-FP16会带来梯度溢出错误
Grad Overflow / Underflow,即梯度溢出。由于FP16的动态范围是5.96×10−8<x<655045.96 \times 10^{-8}<x<655045.96×10−8<x<65504,比FP32的动态范围小了很多,因而在计算的过程中很容易出现上溢出(超出能够表示的最大数值)和下溢出(超出能够表示的最小数值)问题,溢出之后就会出现NAN的问题。在深度学习中,由于激活函数的的梯度往往要比权重梯度小,更易出现下溢出的情况,具体的细节如下图所示。
缺点2-FP16会带来舍入误差
舍入误差,即当梯度过小,小于当前区间内的最小间隔时,该次梯度更新可能会失败,具体的细节如下图所示,由于更新的梯度值超出了FP16能够表示的最小值的范围,因此该数值将会被舍弃,这个权重将不进行更新。
解决方案:
- 使用混合精度训练。所谓的混合精度训练,即在内存中用FP16做储存和乘法从而加速计算,用FP32做累加避免舍入误差,这样可以很好的解决舍入误差的问题。
- 损失放大。有些情况下,即使使用了混合精度训练的方法,由于激活梯度的值太小,会造成下溢出,从而导致模型无法收敛的问题。所谓的损失放大,即反向传播前,将损失变化(dLoss)手动增大2k2^{k}2k倍,因此反向传播时得到的中间变量(激活函数梯度)则不会溢出;反向传播后,将权重梯度缩2k2^{k}2k倍,恢复正常值。
5、混合精度训练代码实战
5.1 代码实现
使用FP32训练代码如下所示:
# coding=utf-8
import torchN, D_in, D_out = 64, 1024, 512
x = torch.randn(N, D_in, device=“cuda”)
y = torch.randn(N, D_out, device=“cuda”)
model = torch.nn.Linear(D_in, D_out).cuda()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)
for t in range(500):y_pred = model(x)loss = torch.nn.functional.mse_loss(y_pred, y)optimizer.zero_grad()loss.backward()optimizer.step()
使用FP16训练代码如下所示,仅仅需要在原始的Pytorch代码中增加3行代码,你就可以体验到极致的性能加速啦。
# coding=utf-8
import torchN, D_in, D_out = 64, 1024, 512
x = torch.randn(N, D_in, device=“cuda”)
y = torch.randn(N, D_out, device=“cuda”)
model = torch.nn.Linear(D_in, D_out).cuda()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)
model, optimizer = amp.initialize(model, optimizer, opt_level=“O1”)
for t in range(500):y_pred = model(x)loss = torch.nn.functional.mse_loss(y_pred, y)optimizer.zero_grad()with amp.scale_loss(loss, optimizer) as scaled_loss:scaled_loss.backward()optimizer.step()
5.2 代码解析
1、model, optimizer = amp.initialize(model, optimizer, opt_level=“O1”)
这行代码的主要作用是对模型和优化器执行初始化操作,方便后续的混合精度训练。其中opt_level表示优化的等级,当前支持4个等级的优化,具体的情况如下图所示:
- 当opt_level='00’时,表示的是当前执行FP32训练,即正常的训练,当前优化等级执行的具体操作是cast_model_type=torch.float32、patch_torch_function= False、keep_batchnorm_fp32=None、master_weight=False、loss_scale=1.0。
- 当opt_level='01’时,表示的是当前使用部分FP16混合训练,当前优化等级执行的具体操作是cast_model_type=None、patch_torch_function=True、keep_batch norm_fp32=None、master_weight=None、loss_scale=“dynamic”。
- 当opt_level='02’时,表示的是除了BN层的权重外,其他层的权重都使用FP16执行训练,当前优化等级执行的具体操作是cast_model_type=torch.float16、patch _torch_function=False、keep_batchnorm_fp32=True、master_weight =True 、loss_scale=“dynamic”。
- 当opt_level='03’时,表示的是默认所有的层都使用FP16执行计算,当keep_batch norm_fp32=True,则会使用cudnn执行BN层的计算,该优化等级能够获得最快的速度,但是精度可能会有一些较大的损失。当前优化等级执行的具体操作是cast_ model_type=torch.float16、patch _torch_function=False、keep_batchnorm _fp32=False、master_weight =False、loss_scale=1.0
注意事项:
1、cast_model_type表示的是模型的输入类型。当前支持的类型包括torch.float32和torch.float16;
2、patch _torch_function表示的是根据不同函数的输入数据要求获得一个最优的输入类型。GEMM和Convolution等运算可以使用FP16快速的获得最终的结果,由于softma x/exponentiation/pow等运算需要较高的精度,所以选择使用FP32来计算。当前支持的类型包括False和True。
3、keep_batchnorm _fp32表示的是是否需要对网络中BN层执行特殊处理。由于网络中的BN层会影响数据的分布情况,从而进一步影响网络的训练过程,因此需要认真的去处理这个类型的层。当该层使用FP32时,网络的训练过程会更加稳定。当前支持的类型包括False和True。
4、master_weight 表示的是网络在训练过程中部分参数使用FP32来表示,部分参数使用FP16来表示。上图中蓝色的框表示FP32类型,绿色的框表示FP16类型,FP32在转化为FP16的过程中会进行备份(master_0),optimizer都是使用FP32来表示,而model部分中部分参数是FP16类型,部分参数是FP32类型,梯度更新的过程通常是在master上面执行。
5、loss_scale表示是是否需要执行损失放大操作。1.0表示不需要执行损失放大操作,dynamic表示需要执行损失放大操作。
NVIDIA官方给出的使用规则如下所示:
- 首先,建议将opt_level设置为00。即使用FP32训练模型,从而建立起一个准确的Baseline;
- 然后,尝试着将opt_level设置为01。即尝试着使用混合精度训练方法;
- 接着,如果你对训练的速度有着较高的要求,建议将opt_level设置为02或者03;
2、 with amp.scale_loss(loss, optimizer) as scaled_loss:
scaled_loss.backward()
这行代码的主要作用是在反向传播前进行梯度放大来进行更新,在反向传播后进行梯度缩放,返回原来的值,但是可以很好的解决由于梯度值太小模型无法更新的问题。具体的细节如下图所示:
上图展示了FP16在计算的过程中由于梯度值太小,超出了FP16能表示的下限值,因而无法进行权重更新,导致网络不收敛。
上图展示了使用损失方法(Scaled Loss)的方法来很好的解决这个问题,即在反向传播之前,给这些比较少的数值乘上2k2^{k}2k,即将其扩大2k2^{k}2k倍,将其调整到FP16能够支持的一个合理的范围内,那么FP16就可以对这个比较小的梯度增量值执行更新,这样就可以很好的解决这个问题。
上图展示了对反向传播之后的结果之后后处理的过程,由于我们为了解决方向传播之前梯度数值太小而将它扩大2k2^{k}2k倍,那么这样计算之后就相当于我们认为的将梯度值增加了2k2^{k}2k倍,为了获得准确的权重值,我们需要在反向传播之后除以2k2^{k}2k,整个过程在optimizer.step()执行之前。
6、F16训练效果展示
上图展示了使用混合训练在多个经典模型上面的加速效果。在BERT模型上,使用混合精度训练可以获得4倍的提速。换句话说,我们原本需要4天才能训练好的模型,现在1天就可以训练出来,而且能够达到几乎相同的精度级别。这在很多情况下还是挺有用的,这个方法在减少模型训练时间的同时可以节省更多的电费,除此之外,可以节约算法工程师们的时间,从而提高他们的工作效率。
上图展示了使用混合精度训练的模型的精度。通过观察我们可以得出以下的结论:混合精度训练在提升训练速度的同时可以达到和FP32训练同样的精度。
7、个人总结
通过仔细理解上面的内容,你应该会对混合精度训练有了一个全新的认识。所谓的混合精度训练,即当你使用N卡训练你的网络时,混合精度会在内存中用FP16做储存和乘法从而加速计算,用FP32做累加避免舍入误差。它的优势就是可以使你的训练时间减少一半左右。它的缺陷是只能在支持FP16操作的一些特定类型的显卡上面使用,而且会存在溢出误差和舍入误差。总而言之,混合精度训练可以在保证精度的同时极大的提升你的训练速度,如果你习惯使用pytorch来训练网络,那你就可以获得极致的训练速度啦。当前混合精度训练仍然存在着一些限制条件,首先,你的硬件设备需要支持FP16计算;其次,你的硬件设备需要具有Tensor_Core单元(这仅仅存在于一些新架构的N卡上面);接着,当前的仅有少量的深度学习框架支持混合精度训练(Pytorch);最后,混合精度不仅仅可以用在网络训练的过程中,同样也可以将它应用在网络推理过程中执行加速。随着越来越多的硬件设备支持FP16计算之后,混合精度训练和推理应该会成为一个首选,我相信越来越多的训练和推理框架都会在短期内逐渐支持混合精度训练。
参考资料
[1] 参考博客
[2] NVIDIA参考资料
[3] GTC_2019
[4] apex
注意事项
[1] 该博客是本人原创博客,如果您对该博客感兴趣,想要转载该博客,请与我联系(qq邮箱:1575262785@qq.com),我会在第一时间回复大家,谢谢大家的关注.
[2] 由于个人能力有限,该博客可能存在很多的问题,希望大家能够提出改进意见。
[3] 如果您在阅读本博客时遇到不理解的地方,希望您可以联系我,我会及时的回复您,和您交流想法和意见,谢谢。
[4] 本人业余时间承接各种本科毕设设计和各种小项目,包括图像处理(数据挖掘、机器学习、深度学习等)、matlab仿真、python算法及仿真等,有需要的请加QQ:1575262785详聊,备注“项目”!!!
混合精度训练-Pytorch相关推荐
- pytorch 中 混合精度训练(真香)
一.什么是混合精度训练 在pytorch的tensor中,默认的类型是float32,神经网络训练过程中,网络权重以及其他参数,默认都是float32,即单精度,为了节省内存,部分操作使用float1 ...
- 混合精度训练、分布式训练等训练加速方法
以Pytorch为例 混合精度训练 Pytorch自动混合精度(AMP)训练 Pytorch自动混合精度(AMP)介绍与使用 1. 理论基础 pytorch从1.6版本开始,已经内置了torch.cu ...
- Pytorch混合精度训练
还是搬运来给自己学习啊 多谢体谅拉~~ 这里分享混合精度训练的时候遇到的各种问题:1.forward期间nan,2.训练过程中loss scale一泻千里最终导致训练崩溃,以及如何debug. 简介 ...
- Pytorch 混合精度训练(Automatic Mixed Precision)原理解析
Pytorch 混合精度训练(Automatic Mixed Precision)原理解析 1. Overview 默认情况下,大多数深度学习框架(比如 pytorch)都采用 32 位浮点算法进行训 ...
- pytorch apex 混合精度训练和horovod分布式训练
转载请注明出处: https://mp.csdn.net/postedit/103600124 如果你基于pytorch训练模型,然后,你想加快训练速度,增大batch_size,或者,你有一台配置多 ...
- 基于OpenSeq2Seq的NLP与语音识别混合精度训练
基于OpenSeq2Seq的NLP与语音识别混合精度训练 Mixed Precision Training for NLP and Speech Recognition with OpenSeq2Se ...
- 浅谈深度学习混合精度训练
↑ 点击蓝字 关注视学算法 作者丨Dreaming.O@知乎 来源丨https://zhuanlan.zhihu.com/p/103685761 编辑丨极市平台 本文主要记录下在学习和实际试用混合精度 ...
- 实战 PK!RTX2080Ti 对比 GTX1080Ti 的 CIFAR100 混合精度训练
雷锋网 AI 科技评论按:本文作者 Sanyam Bhutani 是一名机器学习和计算机视觉领域的自由职业者兼 Fast.ai 研究员.在文章中,他将 2080Ti 与 1080Ti 就训练时长进行了 ...
- 模型训练慢和显存不够怎么办?GPU加速混合精度训练
目录 混合精度训练 理论原理 三大深度学习框架的打开方式 Pytorch Tensorflow PaddlePaddle 混合精度训练 一切还要从2018年ICLR的一篇论文说起... <MIX ...
最新文章
- 乔布斯成功的七条秘诀
- Intel Realsense C/C++ 转 python (1)rs-hello-realsense 获取摄像头正中心对应的深度数据 get_distance()
- 如何使用Java与Mysql进行数据交互
- Docker小白到实战之Docker Compose在手,一键足矣
- VirtualBox安装Centos6.8出现——E_INVALIDARG (0x80070057)
- php将年月日_php生成年月日下载列表的方法
- IDEA 隐藏编辑器顶部 Tab 栏
- Spring集成quartz实现的定时任务调用
- C语言程序设计学习心得体会总结
- stm32单片机相同系列型号代码移植
- HackerRank [Algo] Matrix Rotation
- 惯性张量惯性矩惯性积、转动惯量、面积转动惯量、质量转动惯量
- 冲突域和广播域的理解
- 中医针灸学综合练习题库【2】
- cocos2d 由导出文件.csb反推出cocosUI工程
- 2020-12-10-计算机基础
- PCB板常用检测方法
- setup、erf、reactive
- 汉字机内码简介及转换工具
- 剑网三一个服务器最多有多少人,人比怪多,剑网三缘起刚开服,升级最大的阻碍居然是玩家...
热门文章
- linux 拆分文件 多个,linux – 如何拆分文件并保留每个部分的第...
- JS引擎、运行时与调用栈概述
- Eclipse使用添加tomcat后,默认部署目录不是tomcat/webapps,修改方法如下
- 1500Vdc的光伏系统距离大规模应用还有多远?
- GNU C中x++是原子操作吗?
- 源码varnish安装
- 重新想象 Windows 8 Store Apps (59) - 锁屏
- plsql查询中补入空行--做报表分页挺有用
- Backup Exec for Windows Servers (BEWS) 简体中文文档汇总(持续更新)
- python用代码安装3.6_Python3.6安装及引入Requests库的实现方法