原文链接:Facebook 最新力作 FBNetV3来了!相比 ResNeSt 提速 5 倍,精度不输 EfficientNet
FBNetV1:https://arxiv.org/abs/1812.03443

FBNetV2: https://arxiv.org/abs/2004.05565

FBNetV3: https://arxiv.org/abs/20206.02049

今天逛arxiv时看到了FBNetV3一文,虽然笔者对NAS相关方法并不感冒,但考虑到FBNetV3都出来了,V4出的可能并不大了。尤其当笔者看到FNBetV3可以取得媲美EfficientNet与ResNeSt的精度同时具有更少的FLOPs。索性就花点时间简简单单聊一下FBNet系列咯。注:FBNetV1与FBNetV2已开源,FNBetV3尚未开源,但应该不久,期待FBNetV3能尽快开源。

Abstract

这篇论文提到了一个比较有意思的点:网络架构与训练策略同时进行搜索。这是之前的方法所并未尝试的一个点,之前的方法主要聚焦在网络架构,而训练方法则是采用比较常规的一组训练方式。也许这就是“灯下黑”的缘故吧,看到了网络架构的重要性影响而忽略了训练方式在精度方面的“小影响”。但是,当精度达到一定程度之后,训练方式的这点影响就变得尤为重要了。

所以Facebook的研究员从这点出发提出了FBNetV3,它将网络架构与对应的训练策略通过NAS联合搜索。在ImageNet数据集上,FBNetV3取得了媲美EfficientNet与ResNeSt性能的同时具有更低的FLOPs(1.4x and 5.0x fewer);更重要的是,该方案可以跨网络、跨任务取得一致性的性能提升。

Contribute

尽管NAS在网路架构方面取得了非常好的结果,比如EfficientNet、MixNet、MobileNetV3等等。但无论基于梯度的NAS,还是基于supernet的NAS,亦或给予强化学习的NAS均存在这几个缺陷:

  • 忽略了训练超参数,即仅仅关注于网络架构而忽略了训练超参数的影响;
  • 仅支持一次性应用,即在特定约束下只会输出一个模型,不同约束需要不同的模型。

为解决上述所提到的缺陷,作者提出了JointNAS同时对网络架构与训练策略进行搜索。JointNAS是一种两阶段的有约束的搜索方法,它包含粗粒度与细粒度两个阶段。本文贡献主要包含下面几点:

  • Joint training-architecture search
  • Generalizable training recipe
  • Multi-use predictor
  • State-of-the-art ImageNet accuracy

Method

该文的目标是:在给定资源约束下,搜索具有最高精度的网路架构与训练策略。该问题可以通过如下公式进行描述:
max(A,b)∈Ωacc(A,h),s.t. gi(A)≤Cifor i=1,⋯,γmax_{(A,b) \in \Omega} acc(A,h), \text{ s.t. } g_i(A)\le C_i \text{ for }i = 1, \cdots, \gamma max(A,b)∈Ω​acc(A,h), s.t. gi​(A)≤Ci​ for i=1,⋯,γ
其中,A,h,ΩA,h,\OmegaA,h,Ω分别表示网络架构、训练策略以及搜索空间(见下表);gi(A),γg_i(A),\gammagi​(A),γ表示资源约束信息,比如计算量、存储以及推理耗时灯。

如果搜索空间过大则会导致搜索评估变得不可能,为缓解复杂度问题,作者设计了一种两阶段的搜索算法:(1)粗粒度搜索;(2)细粒度搜索。见下图中的算法1.

Coarse-grained Search

第一阶段的粗粒度搜索将输出精度预测器与一组候选网络架构。

  • Neural Acquisition Function,即预测器,见上图。它包含编码架构与两个head:(1)Auxiliary proxy head用于预训练编码架构、预测架构统计信息(比如FLOPs与参数两)。注:网络架构通过one-hot方式进行编码;(2)精度预测器,它接收训练策略与网路架构,同时迭代优化给出架构的精度评估。
  • Early-stopping,作者还引入一种早停策略以降低候选网络评估的计算消耗;
  • Predictor training,得到候选网络后,作者提出训练50epoch同时冻结嵌入层,然后对整个模型再次训练50epoch。作者采用Huber损失训练该精度预测器。该损失有助于使模型避免异常主导现象(prevents the model from being dominated by outliers)。

Fine-grained Search

第二阶段的搜索是一种基于自适应遗传算法的迭代过程,它以第一阶段的搜索结果作为初代候选,在每次迭代时,对其进行遗传变异更新并评估每个个体的得分,从中选择K个得分最高的子代进行下一轮的迭代,直到搜索完毕,最终它将输出具有最高精度的网络与训练策略。

Search space

作者所设计的搜索空间包含训练策略以及网络架构,其中训练策略部分所搜空间包含优化器类型、初始学习率、权重衰减、mixup比例、dropout比例、随机深度drop比例、应用EMA与否;网络脚骨的所搜空间则基于inverted residual而设计,包含输入分辨率、卷积核尺寸、扩展因子、每层通道数以及深度。具体见下表。

在自动训练实验中,作者仅在固定架构上调整了训练策略;而在联合搜索时,作者对训练策略以及网络架构同时进行搜索,整个搜索空间大小为101710^{17}1017个网络架构与10710^7107个训练策略。

Experiments

作者首先对给定网络在一个较小的搜索空间下验证其搜索算法;然后在联合搜索任务上评估所提方法。注:为降低搜索时间,作者在ImageNet数据集中随机选择了200类别,并从训练集中随机构建了一个10K的验证集。

AutoTrain

在该部分实验中,作者选择FBNetV2-L3作为基准模型,主要进行训练策略的搜索。从搜索结果来看:RMSProp优于SGD,同时采用了EMA。该组训练策略可以提升模型0.8%精度。更多的实验结果见下图,可以看到在多个网络中,AutoTrain方式均可取得性能上的一致提升,这说明了AutoTrain的泛化性能。与此同时,还可以看到EMA可以进一步提升模型的精度。

Search for efficient networks

前面的实验验证了训练策略搜索的重要性,这里将对联合搜索进行尝试。搜索结果与其他NAS结果对比见下表。从表中对比可以看到:所提方法取得了更高的精度。比如FBNetV3-E取得了80.4%的精度,而与之对标的EfficientNetB2的精度为80.3%,而它们的FLOPs对比则似乎752M vs 1G;取得了82.3%精度的FBNetV3-G,而与之对标的ResNeSt在相同精度下FLOP却是其5倍之多。

Ablation Study

除此之外,作者还进行了一些消融实验分析。

  • 网络架构与训练策略的成对性:见下图中Table4。从一定程度上说明: 仅搜索网络架构只能得到次优结果;
  • 细粒度搜索的重要性:见下图的Table5。从一定程度上说明:细粒度搜索可以进一步提升的模型的性能。

  • EMA的泛化性能分析:作者通过实验发现了EMA在分类任务上取得了性能的一致提升。认为这种策略同样适用于其他任务,并在COCO目标检测任务上进行了验证,结果见下图。可以看到:EMA策略确实取得了更优的结果。看来EMA也是一种非常棒的trick,提升精度的同时又不影响训练和推理,各位小伙伴还在等什么?快点用起来吧!

Conclusion

Facebook的研究员提出了一种比较好的NAS方案,它将训练策略纳入到网络架构的搜索过程中。之前的研究往往只关注网络架构的搜索而忽视了训练策略的影响,这确实是一点比较容易忽视的。所谓的“灯下黑”,吼吼,笔者突然意识到:是不是还可以将参数初始化方式那纳入到搜索空间呢?感兴趣的小伙伴还不快点去尝试一下。

◎作者档案
Happy,一个爱“胡思乱想”的AI行者
个人公众号:AIWalker
欢迎大家联系极市小编(微信ID:fengcall19)加入极市原创作者行列

关注极市平台公众号(ID:extrememart),获取计算机视觉前沿资讯/技术干货/招聘面经等

Facebook 最新力作 FBNetV3来了!相比 ResNeSt 提速 5 倍,精度不输 EfficientNet相关推荐

  1. 12层也能媲美ResNet?邓嘉团队提出最新力作ParNet,ImageNet top1精度直冲80.7%

    作者丨happy 编辑丨极市平台 导读 是否有可能构建一个高性能的Non-deep(非深度)神经网络呢 ?普林斯顿大学的Jia Deng团队的最新力作ParNet:凭借12层的深度网络在ImageNe ...

  2. facebook最新客户端_忘记Facebook:Zoom是科技行业最新的问题之子

    facebook最新客户端 By Ainsley Harris 安斯利·哈里斯(Ainsley Harris) This story may sound familiar: A tech compan ...

  3. Vue 3最新力作 Vue.js 3企业级应用开发实战

    <Vue.js 3企业级应用开发实战>一书由电子工业出版社出版,已经于2022年1月出版上市.近日拿到了样书,第一时间希望与读者朋友们分享下这本书里面的内容. 这本书的背景 近期拿到了样书 ...

  4. 反杀人类、拯救机器狗,被虐士兵机器人化身终结者!这是“波士屯动力”的最新力作...

    鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 要训练一个终结者,需要几个步骤? 首先,为了锻炼它的枪法,要在训练时拿球砸它. 或者制造障碍,再给它来上一棒槌. 枪法准还不够,机器人,就得 ...

  5. Facebook最新Libra币开发指南---接口服务器开发2

    Facebook最新Libra币开发指南---接口服务器开发2 2019年06月24日 16:23:16 最老程序员闫涛 阅读数 1145 在上一篇博文中,我们已经使用Rust语言开发了一款简单的We ...

  6. 在目标检测被“遗忘”领域进行探索后,百度开源最新力作UMOP:即插即用、无痛涨点

    ​作者丨happy 编辑丨极市平台 本文原创首发于极市平台公众号,转载请获得授权并标明出处. 文章链接:https://arxiv.org/pdf/2109.07217.pdf 代码链接:https: ...

  7. 一:Tixiao Shan最新力作LVI-SAM(Lio-SAM+Vins-Mono),基于视觉-激光-惯导里程计的SLAM框架,环境搭建和跑通过程

    一:前言介绍 LVI-SAM是Tixiao Shan的最新力作,Tixiao Shan是Lego-loam(基于激光雷达里程计的SLAM框架)和Lio-sam(基于惯性-雷达紧耦合的SLAM框架)的作 ...

  8. 中国股神最新力作——《猎杀黑马》即将上市

    中国股神最新力作--<猎杀黑马> 作者:王宁 著 书号: 978-7-111-30408-1 定价: 39.00 元 内容简介 本书以王者从一位不名一文的穷苦大学生成为跑赢大盘的百万富翁的 ...

  9. 云原生社区最新力作《深入理解 Istio》出版

    云原生社区最新力作 -- <深入理解 Istio>出版发售 ❝ 云原生实验室和电子工业出版社将为大家送出 5 本<深入理解 Istio:云原生服务网格进阶实战>.关注本公众号参 ...

最新文章

  1. PowerDNS + PowerDNS-Admin
  2. WCF面向服务应用程序系列之十:绑定-标准绑定(HTTP/TCP)
  3. Scaleform GFx
  4. 重定义 不同的基类型_镍及铁镍基耐蚀合金高温合金哈氏合金镍基合金之第一篇概述...
  5. js对象数组 按对象的某一属性进行去重
  6. 1-2 三位数反转(算法竞赛入门经典)
  7. android 动态换肤框架,GitHub - ss520k/Android-Skin-Loader: 一个通过动态加载本地皮肤包进行换肤的皮肤框架...
  8. iphone小圆点在哪儿设置_iPhone终于自带长截屏了?苹果手机这些截图方式,你用过几种?...
  9. 目标跟踪入门篇—相关滤波
  10. 4月19 ubuntu防火墙
  11. phpstudy所需的vc11和vc14运行库
  12. python xlsxwriter模块生成EXCEL柱状图、饼图
  13. 关于amd cpu超频 个人心得
  14. 【Ubuntu+Caffe+CPU】Cannot use GPU in CPU-only Caffe: check mode
  15. weak和alias
  16. java批量替换word内容_word多个文档替换内容
  17. java实现订单未支付失效_Java微信支付之关闭订单
  18. 【计算机二级】综合题目
  19. git学习(2)gitlab 使用
  20. 限流对于抖音玩家来说,无异于被宣布了“死亡”。

热门文章

  1. JavaScript-8(正则表达式)
  2. 查询反模式 - 隐式的列
  3. SimpleAdapter的用法
  4. PHP-SESSION深入理解
  5. 博客页面运行代码demo测试
  6. ThinkPHP框架使用心得二 CURD操作
  7. 6.1的学习成果,主要是用到指向函数的指针
  8. 俱乐部又多了一个MVP
  9. recv函数_第五十二章、send和recv函数
  10. 机器人学习--Gazebo学习--模型库和编辑模型