https://www.toutiao.com/i6715373426858525198/

作者 | 言有三

编辑 | 言有三

0 引言

现在很多的图像算法都是离线计算的,而学术界刷榜单那些模型,什么vgg16,resnet152是不能直接拿来用的,所以,对于一个深度学习算法工程师来说,如果在这些模型的基础上,设计出一个又小又快的满足业务需求的模型,是必备技能,今天就来简单讨论一下这个问题。

首先,祭出一个baseline,来自Google的mobilenet,算是学术界祭出的真正有意义的移动端模型。

当然,这里我们要稍微修改一下,毕竟原始的mobilenet是分类模型过于简单无法展开更多,我们以更加复杂通用的一个任务开始,分割,同时修改一下初始输入尺度,毕竟224这个尺度在移动端不一定被采用,我们以更小的一个尺度开始,以MacBookPro为计算平台。

在原有mobilenet的基础上添加反卷积,输入网络尺度160*160,网络结构参考mobilenet,只是在最后加上反卷积如下

我们在mac上跑一遍,看看时间代价如下:

其中黄色高亮是统计的每一个module的时间和。

准备工作完毕,接下来开始干活。

1 分析网络的性能瓶颈

1.1 运行时间和计算代价分析

上面两图分别是网络的计算时间和计算量,从上面我们总结几条规律:

(1) 耗时前5,conv2_1_sep,conv6_sep,conv3_1_sep,conv3_1_dw,conv2_1_dw。

我们看看为什么,

conv2_1_dw计算量,32*80*80*3*3*1=1843200

conv2_1_sep计算量,32*80*80*1*1*64=13107200

conv3_1_dw计算量,128*40*40*3*3*1=1843200

conv3_1_sep计算量,128*40*40*1*1*128=26214400

conv6_sep计算量,1024*5*5*1*1*1024=26214400

上面可以看出,计算量最大的是conv6_sep,conv2_1_sep,理论上conv2_1_dw计算量与conv2_1_sep不在一个量级,但是实际上相当,这是库实现的问题。

(2) 从conv5_1到conv5_5,由于尺度不发生变化,通道数不发生变化,所以耗时都是接近的,且dw模块/sep模块耗时比例约为1:3。

前者计算量:512*10*10*3*3

后者计算量:512*10*10*1*1*512

这一段网络结构是利用网络深度增加了非线性,所以对于复杂程度不同的问题,我们可以缩减这一段的深度。

1.2 网络参数量分析

从上面我们可以看出,参数量集中在conv6_sep,conv5_6_sep,conv5_1~5_5,所以要压缩模型,应该从这里地方入手。

当我们想设计更小的mobilenet网络时,有3招是基本的,一定要用。

(1) 降低输入分辨率,根据实际问题来设定。

(2) 调整网络宽度,也就是channel数量。

(3) 调整网络深度,比如从conv4_2到conv5_6这一段,都可以先去试一试。

2 开始调整网络

在做这件事之前,我们先看看经典网络结构的一些东西,更具体可以参考之前的文章。

https://zhuanlan.zhihu.com/p/25797790

从上面的表看,主流网络第一个卷积,kernel=3,stride=2,featuremap=64,mobilenet系列已经降到了32。

第1层是提取边缘等信息的,当然是featuremap数量越大越好,但是其实边缘检测方向是有限的,很多信息是冗余的, 由于mobilenet优异的性能,事实证明,最底层的卷积featuremap channel=32已经够用。

实际的任务中,大家可以看conv1占据的时间来调整,不过大部分情况下只需要选择好输入尺度大小做训练,然后套用上面的参数即可,毕竟这一层占据的时间和参数,都不算多,32已经足够好足够优异,不太需要去调整的。

自从任意的卷积可以采用3*3替代且计算量更小后,网络结构中现在只剩下3*3和1*1的卷积,其他的尺寸可以先不考虑。

采用80*80输入,砍掉conv5_6和conv6,得到的模型各层花费时间如下

总共274ms,我们称这个模型为mobilenet_v0

2.1 如何决定输入尺度

输入尺度绝对是任务驱动的,不同的任务需要不同的输入尺度,分割比分类需要尺度一般更大,检测又比分割所需要的尺度更大,在这里,我们限定一个比较简单的分割任务,然后将输入尺度定为80*80,就将该任务称为A吧。

2.2 如何调整网络宽度与深度

通道数决定网络的宽度,对时间和网络大小的贡献是一个乘因子,这是优化模型首先要做的,下面开始做。

2.2.1 反卷积

看上面的模型我们可以看出,反卷积所占用时间远远大于前面提取特征的卷积,这是因为我们没有去优化过这个参数。那么,到底选择多少才合适呢?

在这里经验就比较有用了。卷积提取特征的过程,是featuremap尺度变小,channel变大,反卷积正好相反,featuremap不断变大,通道数不断变小。这里有4次放大2倍的卷积,考虑到每次缩放一倍,所以第一次的channel数量不能小于2^4=16,一不做二不休,我们干脆就干为16。

我们称这个模型为mobilenet_v1

我们看下时间对比

再看下性能对比。

这样,一举将模型压缩5倍,时间压缩5倍,而且现在反卷积的时间代价几乎已经可以忽略。

2.2.2 粗暴地减少网络宽度

接下来我们再返回第1部分,conv5_1到conv5_5的计算量和时间代价都是不小的,且这一部分featuremap大小不再发生变化。这意味着什么?这意味着这一部分,纯粹是为了增加网络的非线性性。

下面我们直接将conv5_1到conv5_5的featuremap从512全部干到256,称其为mobilenet2.1.1,再看精度和时间代价。

时间代价和网络大小又有了明显下降,不过精度也有下降。

2.2.3 粗暴地减少网络深度

网络层数决定网络的深度,在一定的范围内,深度越深,网络的性能就越优异。但是从第一张图我们可看出来了,网络越深,featureamap越小,channel数越多,这个时候的计算量也是不小的。

所以,针对特定的任务去优化模型的时候,我们有必要去优化网络的深度,当然是在满足精度的前提下,越小越好。

我们从一个比较好的起点开始,从mobilenet_v1开始吧,直接砍掉conv5_5这个block,将其称为mobilenet_v2.1.2。

下面来看看比较。

从结果来看,精度下降尚且不算很明显,不过时间的优化很有限,模型大小压缩也有限。

下面在集中看一下同时粗暴地减少网络深度和宽度的结果,称其为mobilenet_v2.1.3

以损失将近1%的代价,将模型压缩到2.7m,40ms以内,这样的结果,得看实际应用能不能满足要求了。

总之,粗暴地直接减小深度和宽度,都会造成性能的下降。

2.2.4 怎么弥补通道的损失

从上面我们可以看出,减少深度和宽度,虽然减小了模型,但是都带来了精度的损失,很多时候这种精度损失导致模型无法上线。所以,我们需要一些其他方法来解决这个问题。

2.2.4.1 crelu通道补偿

从上面可以看出,网络宽度对结果的影响非常严重,如果我们可以想办法维持原来的网络宽度,且不显著增加计算量,那就完美了。正好有这样的方法,来源于这篇文章《Understanding and Improving Convolutional Neural Networks via Concatenated Rectified Linear Units》,它指出网络的参数有互补的现象,如果将减半后的通道补上它的反,会基本上相当于原有的模型,虽然原文针对的是网络浅层有这样的现象,不过深层我们不妨一试,将其用于参数量和计算代价都比较大的conv5_1到conv5_4,我们直接从mobilenet_v2.1.3开始,增加conv5_1到conv5_4的网络宽度,称之为mobilenet_v2.1.4。

2.2.4.2 skip connect,融合不同层的信息

这是说的不能再多,用的不能再多了的技术。从FCN开始,为了恢复分割细节,从底层添加branch到高层几乎就是必用的技巧了,它不一定能在精度指标上有多少提升,但是对于分割的细节一般是正向的。

我们直接从mobilenet_v2.1.3开始,添加3个尺度的skip connection。由于底层的channel数量较大,deconv后的channel数量较小,因此我们添加1*1卷积改变通道,剩下来就有了两种方案,1,concat。2,eltwise。

针对这两种方案,我们分别进行试验。

从上表可以看出,两个方案都不错,时间代价和模型大小增加都很小,而精度提升较大。

现在反过头回去看刚开始的模型v0,在精确度没有下降的情况下,我们已经把速度优化了5倍以上,模型大小压缩到原来的1/10,已经满足一个通用的线上模型了。

当然,我们不可能道尽所有的技术,而接着上面的思路,也还有很多可以做的事情,本篇的重点,是让大家学会分析性能网络的性能瓶颈,从而针对性的去优化网络。更多类似技巧和实验,作为技术人员,自己尝试去吧。

「模型训练」如何迁移学习一个小网络到移动端相关推荐

  1. 【人工智能】如何Finetune一个小网络到移动端(时空性能分析篇)

    本文首发于龙鹏的知乎专栏<深度学习模型训练经验与代码剖析>https://zhuanlan.zhihu.com/p/34455109 00 引言 现在很多的图像算法都是离线计算的,而学术界 ...

  2. 【技术综述】如何Finetune一个小网络到移动端(时空性能分析篇)

    本文首发于龙鹏的知乎专栏<有三AI学院> https://zhuanlan.zhihu.com/p/34455109 00 引言 现在很多的图像算法都是离线计算的,而学术界刷榜单那些模型, ...

  3. 数据不够怎么训练深度学习模型?不妨试试迁移学习 ——重用神经网络的结构2...

    数据不够怎么训练深度学习模型?不妨试试迁移学习 本质就是这个图!pretrained model就是你截取的部分神经网络模型(迁移学习),而nanonet就是你自己加入的网络层. 随着深度学习技术在机 ...

  4. 谷歌「模型汤」靠微调屠了ImageNet的榜!方法竟然只有半页纸

      视学算法报道   编辑:LRS 好困 [新智元导读]ImageNet排行榜又双叒叕被刷新啦!不过这回,新霸主谷歌没有提出新模型,只靠微调「几个」模型就做到了第一,论文通篇都是实验分析,这也引起了网 ...

  5. 【源码】以GUI的形式实现预训练神经网络的迁移学习

    允许用户在不编码的情况下,在图形用户界面中进行预训练神经网络的迁移学习. It allows user to do transfer learning of pre-trained neural ne ...

  6. 「模型解读」深度学习网络只能有一个输入吗

    https://www.toutiao.com/a6711317479001424395/ 平常我们所见的深度学习模型,都是输入一个图像或者视频序列,输出分类,分割,目标检测等结果,但是还有一种模型需 ...

  7. ResNet网络详解并使用pytorch搭建模型、并基于迁移学习训练

    1.ResNet网络详解 网络中的创新点: (1)超深的网络结构(突破1000层) (2)提出residual模块 (3)使用Batch Normalization加速训练(丢弃dropout) (1 ...

  8. MobileNetv1、v2网络详解、使用pytorch搭建模型MobileNetv2并基于迁移学习训练

    1.MobileNetv1网络详解 传统卷积神经网络专注于移动端或者嵌入式设备中的轻量级CNN网络,相比于传统卷积神经网络,在准确率小幅降低的前提下大大减少模型参数与运算量.(相比VGG16准确率减少 ...

  9. AI算力需求6年增长30万倍,「超异构计算」才能满足下一个10年

    今年 3 月,「强化学习教父」Richard Sutton 在<苦涩的教训>一文中指出,「70 年的人工智能研究史告诉我们,利用计算能力的一般方法最终是最有效的方法.要在短期内有所提升,研 ...

最新文章

  1. H5移动端网页标签模板
  2. 深度学习中Batch、Iteration、Epoch的概念与区别
  3. java中.of,java中的sizeof
  4. 软件工程--软件危机-生命周期-软件过程
  5. mysql数据库的链接地址_常用数据库连接URL地址大全
  6. 如果你还在徘徊在程序员的门口,那就赶紧来看看!
  7. SQL Server日期格式和SQL Server转换举例说明
  8. android渠道校验,Android渠道版本自动化校验
  9. 三.Mybatis 多对一与一对多
  10. 输入密码后默认回车提交登录事件
  11. [Vue CLI 3] 环境变量和模式配置实践与源码分析
  12. C# 异步调用中使用回调方法
  13. python会计实证研究_适合会计、金融实证研究的统计软件、编程语言搭配
  14. 大数据采集入门——网络爬虫技术——Selenium
  15. stm8s103k3 周期 捕获_stm8s103k3的UART发送数据问题
  16. 计算机辅助设计和工程图学,工程制图与计算机辅助设计
  17. 数据结构之数组和列表
  18. 单片机c语言设计奥运五环,用C语言程序来设计奥运五环图案
  19. D*(Dynamic A*) 算法详细解析
  20. 删除数据后如何及时释放存储空间

热门文章

  1. tensorflow1.14.0安装不上,报错
  2. VIM 的方向键 h(左)、j(下)、k(上)、l(右)
  3. //Eclipse 快捷方式
  4. [Microsoft][SQLServer 2000 Driver for JDBC][SQLServer]用户sa 登录 ...
  5. JavaScript 开发者最期待的年度大会,惊喜不断,错过还要等好久!
  6. O-GAN:简单修改,让GAN的判别器变成一个编码器!
  7. 左手程序员,右手作家:你必须会的Jupyter Notebook
  8. 一起学spring--spring事件机制--监听器
  9. Science:一种新型玻璃,有望让手机告别碎屏!
  10. ​Rust最受喜爱却少有人用,Python仅排第六,2021全球开发者调查报告出炉