点击上方↑↑↑蓝字关注我们~

2019 Python开发者日」,购票请扫码咨询 ↑↑↑

来源 | 旷视研究院

近日,来自旷视研究院的郭梓超、张祥雨、穆皓远、孙剑等人发表一篇新论文“Single Path One-Shot Neural Architecture Search with Uniform Sampling”,提出一个单路径 One-Shot 模型,以解决训练过程中面对的主要挑战。目前,这一方法在大型数据集 ImageNet 上取得了当前最优结果。

值得一提的是,孙剑现任旷视研究院院长,与同为深度残差网络ResNet作者之一的张祥雨(与孙剑一起加盟旷视)早已合作多次。

传送门:

https://arxiv.org/abs/1904.00420

  • 导语

  • 简介

  • 本文 One-Shot NAS

  • One-Shot NAS方法回顾

  • 单路径超网络与均匀采样

  • 超网络与选择单元

  • 通道数搜索

  • 混合精度量化搜索

  • 基于进化算法的模型搜索

  • 总结

  • 实验

  • 构造单元搜索

  • 通道数搜索

  • 对比SOTA方法

  • 混合精度量化搜索

  • 搜索成本分析

  • 参考文献

导语

一步法(One-Shot)是一个强大的神经网络模型搜索(Neural Architecture Search/NAS)框架,但是它的训练相对复杂,并且很难在大型数据集(比如 ImageNet)上取得较有竞争力的结果。

本文中,旷视研究院提出一个单路径 One-Shot 模型,以解决训练过程中面对的主要挑战,其核心思想是构建一个简化的超网络——单路径超网络(Single Path Supernet),这个网络按照均匀的路径采样方法进行训练。

所有子结构(及其权重)获得充分而平等的训练。基于这个已训练的超网络,可以通过进化算法快速地搜索最优子结构,其中无需对任何子结构进行微调。

对比实验证明了这一方法的灵活性和有效性,不仅易于训练和快速搜索,并且可以轻松支持不同的复杂搜索空间(比如构造单元,通道数,混合精度量化)和搜索约束(比如 FLOPs,速度),从而便于满足多种需求。这一方法在大型数据集 ImageNet 上取得了当前最优结果。

简介

深度学习终结了手工设计特征的时代,同时解决了权重优化问题。NAS 则旨在通过另一个方法——模型搜索(architecture search),终结人工设计架构。

早期的 NAS 方法使用嵌套式优化,从搜索空间采样出模型结构,接着从头训练其权重,缺点是对于大型数据集来讲计算量过大。新近的 NAS 方法则采用权重共享策略减少计算量。本文提出的超网络则包含所有子结构,只训练一次,所有子结构便可以直接从超网络获得其权重,无需从头训练。即使在大型数据集上,计算也十分高效。

大多数权重共享方法使用连续的搜索空间,将模型结构分布不断参数化。这些参数在超网络训练期间与网络权重进行联合优化。因此可以在优化时进行模型搜索,从分布中采样最优的架构。其公式化表示优雅而理论完备。但是存在两个问题:

第一,超网络的权重深度耦合。目前尚不清楚为什么特定结构的复用权重(inherited weights)依然有效。第二,联合优化导致了模型参数和超网络权重的进一步耦合。梯度方法的贪婪天性不可避免地在结构分布和超网络权重中引入偏差。这很容易误导模型搜索。精细地微调超参数和优化过程被用于先前方法之中。

One-Shot 是一种新范式。它定义了超网络,并以相似的方式做权重复用。但是并没有将模型结构分布参数化。模型搜索从超网络训练中解耦,并且解决步骤是独立的。因此,One-Shot 具有序列性。它结合了上述嵌套式和联合式优化方法的优点,因此灵活而高效。

尽管第二个问题已解决,现有 One-Shot 并未很好地解决第一个问题。超网络的权重依然耦合。优化依然复杂,并包含敏感的超参数,导致在大型数据集上表现欠佳。

本文方法的动机旨在吸收 One-Shot 的优点,克服其缺点。One-Shot 成功的关键是使用复用权重的模型的精度可以用来预测从头训练模型的精度。因此,旷视研究院提出,超网络训练应是随机的。这样所有子结构的权重能够被同时且均匀地优化。

为减少超网络的权重耦合,旷视研究院提出一个单路径超网络,在每次迭代训练中只有单路径结构被激活。训练中不需要任何超参数来指导子结构的选择,采用均匀采样的方式,平等对待所有子结构。

本文方法简单而灵活,超网络训练中没有超参数。其简易性允许设计丰富的搜索空间,包括新设计通道单元和位宽单元。模型搜索过程十分高效,因为只需要基于超网络的权重进行前向计算。进化算法则用来轻松支持多种约束。

综合性消融实验及在大型数据集(ImageNet)上的实验证明了这一方法在精度、内存消耗、训练时间、模型搜索的有效性及灵活性方面都表现良好,达到了当前最优的结果。

本文 One-Shot NAS


  • One-Shot NAS方法回顾

上所述,耦合式模型搜索和权重优化是存在挑战和问题的。通过回顾发现,早期使用嵌套优化的 NAS 方法在于解决公式 (1) 和 (2) 的优化问题,这不禁引起思考,问题解耦和权重共享的优点是否可以兼得?

这一考虑诞生了所谓的 One-Shot 。这些方法依然只训练一次超网络,并允许各结构共享其中的权重。

但是,超网络训练及模型搜索作为先后次序的两个步骤是解耦的。请注意,这不同于嵌套优化或联合优化。

首先,超网络权重被优化为:

相比公式 (4),公式 (5) 已经不存在搜索空间的连续参数化,只有网络权重被优化。

其次,搜索部分被表示为:

公式 (6) 与公式 (1) 、 (2) 的最大区别是其权重是预先初始化的。评估  仅需要推理。没有微调或者再训练。因此搜索非常有效。

通过借助进化算法,搜索同样非常灵活。像等式 (3)对模型结构进行的约束可以精确地满足。并且一旦训练好一个超网络,可在同一超网络内基于不同约束(比如 100ms 和 200ms 延迟)重复搜索。这些特性是先前方法所缺失的,将使 One-Shot NAS 方法对实际任务更具吸引力。

但依然存在一个问题。在等式 (5) 中,超网络训练的图节点权重是耦合的,复用权重是否适用于任意子结构尚不清楚。

  • 单路径超网络和均匀采样

按照基本原理重新出发,会使 One-Shot 范式更有效。在等式 (5) 中,模型搜索成功的关键在于,在验证集中,使用复用权重(没有额外的微调)的任意子结构的精度是高度可信的。正如等式 (1) 是理想情况,需要权重近似最优权重。近似的效果和训练损失函数被最小化的程度成正比。这推导出一个原则:超网络权重的优化应当与搜索空间中所有子结构的优化同时进行。这可表示为:

请注意,等式 (7) 是等式 (5) 的实现。在优化的每一步中,子结构是随机采样的,只有对应的权重被激活和更新。这不仅节省内存空间,而且高效。由此,超网络本身不再是一个有效的网络,而变成一个随机的网络。

为减少节点权重之间的协同适应,旷视研究院提出最大化简化搜索空间。它只包含单一路径架构,如图 1 所示。

图 1:单一路径超网络架构图

在每次训练时仅保留一个。不存在任何调优。训练在本文实验中收敛良好。

先验分布很重要。旷视研究员通过实验发现,均匀采样已经足够好。这并不让人惊讶。这是因为实际任务常常期望有多个模型结构,以满足不同的约束。图 2 表明,两个采样方法皆工作良好,均匀约束采样方法表现稍好,本文默认使用它。

表 2:不同采样策略的单路径超网络的进化模型搜索

本文注意到,在优化时根据结构分布采样一个路径已经出现在之前的权重共享方法之中,区别在于,在本文的训练中(等式(7))分布              是一个固定的先验,而在先前方法中,它是可学习和更新的(等式(4)),后者会使超网络权重和结构参数优化高度关联。

请注意,本文并未声明在训练时一个固定的先验分布天生优于优化分布。不存在这样的理论保证。本文更优的结果可能是受益于这一事实:当前优化技术的成熟度不足以满足等式 (4) 中的联合优化需求。

  • 超网络与选择单元

选择单元用于构建一个超网络。图 1 给出了一个实例。一个选择单元包含多个选择。对于本文提出的单路径超网络,每个选择单元一次只调用一个选择。一个路径的获得是通过随机采样所有选择单元实现的。

本文方法的简易性允许定义不同类型的选择单元,以搜索不同的结构变量。具体而言,旷视研究院提出两个全新的选择单元,以支持复杂的搜索空间。

通道数搜索。选择单元旨在搜索一个卷积层的通道数。其主要思想是预先分配一个带有最大通道数的权重张量。在超网络训练期间,系统随机选择通道数并分割出用于卷积的相应的子张量。详见图 4。

图 4:用于通道数搜索的选择单元

混合精度量化搜索。选择单元可以搜索卷积层权重和特征的量化精度。在超网络训练中,特征图的位宽和和权重被随机选取。详见图 5。

图 5:用于混合精度量化搜索的选择单元

  • 基于进化算法的模型搜索

针对等式 (6) 中的模型搜索,先前的 One-Shot 工作使用随机搜索。这在大的搜索空间中并不奏效。因此,本文使用了进化算法,同时扬弃了从头开始训练每个子结构的缺点,只涉及推理部分,因此非常高效。详见算法 1。

算法 1:基于进化算法的模型搜索

图 3 描绘了使用进化算法和随机搜索两种方法在进化迭代时的验证集精度。很明显进化算法搜索更有效。

图 3:进化算法搜索对比随机搜索

进化算法可以灵活处理等式 (3) 的不同约束,因为变异和交叉过程是可控的,以产生满足约束条件的合适候选。

  • 总结

单路径超网络、均匀采样训练策略、基于进化算法的模型搜索、丰富的搜索空间设计,上述多种设计使得本文方法简单、高效和灵活。表 1 给出了本文方法与其他权重共享方法的一个全方位、多维度对比结果。

表 1:本文方法对比当前权重共享 SOTA 方法

实验

所有实验是在 ImageNet 上进行的。验证集和测试集的设定遵从 Proxyless NAS [4]。对于超网络的训练,以及(进化搜索之后)最优模型结构的从头再训练,本文使用和 [17] 一样的设定。

  • 构造单元搜索

构造单元(building block)的设计灵感来自手工设计网络的代表作——ShuffleNet v2。表 2 给出了超网络的整体架构。共有 20 个选择单元。

表 2:超网络架构

表 3 给出了结果。为了对比,本文设置了一系列基线,如下:1)只选择一个特定的单元选择;2)从搜索空间中随机选择一些候选;3)使用随机搜索替代本文的进化算法模型搜索。

表 3:构造单元搜索结果

  • 通道数搜索

搜索卷积层的通道数非常有挑战,如图 4 所示,本文提出一个全新的选择单元用于通道数搜索,并首先在基线结构 “all choice 3”(见表 3)做了评估,结果如表 4 (第一部分)所示;为进一步提升精度,本文对构造单元和通道做了联合搜索。结果如表 4(第二部分)所示。

表 4:通道数搜索

  • 对比SOTA方法

虽然表 4 展示了本文方法的优越性,但是由于搜索空间和训练方法的不同,存在不公平对比的可能性。为直接进行对比,本文采用和 Proxyless NAS [4]、FBNet [26] 相同的搜索空间,并在同一设置下再训练已搜索的模型,具体对比结果如表 5 所示:

表 5:本文方法与当前 SOTA NAS 方法的对比

  • 混合精度量化搜索

低功率设备部署模型时需要用到量化技术。但是在通道数与位宽之间找到一个权衡不无挑战。对于这些问题,本文方法可迎刃而解。

这里的搜索空间包含上述的通道搜索空间和混合精度量化搜索空间,后者使用一个全新的选择单元搜索权重和特征图的位宽,如图 5 所示。

在超网络训练中,对于每个选择单元,特征位宽和权重位宽是随机采样的。他们在进化步骤中被确定。具体实验结果如表 6 所示:

表 6:混合精度量化搜索的结果

  • 搜索成本分析

搜索成本在 NAS 中是一件要紧的事。本文给出了与先前方法 [4] [26] 的一些对比结果,如表 7 所示:

表 7:搜索成本


参考文献


[2] G. Bender, P.-J. Kindermans, B. Zoph, V. Vasudevan, and Q. Le. Understanding and simplifying one-shot architecture search. In International Conference on Machine Learning, pages 549–558, 2018. 1, 2, 3, 4, 5, 6

[3] A. Brock, T. Lim, J. M. Ritchie, and N. Weston. Smash: one-shot model architecture search through hypernetworks. arXiv preprint arXiv:1708.05344, 2017. 1, 2, 3, 4, 6

[4] H. Cai, L. Zhu, and S. Han. Proxylessnas: Direct neural ar- chitecture search on target task and hardware. arXiv preprint arXiv:1812.00332, 2018. 1, 2, 3, 4, 5, 6, 7, 8

[17] N. Ma, X. Zhang, H.-T. Zheng, and J. Sun. Shufflenet v2: Practical guidelines for efficient cnn architecture design. In Proceedings of the European Conference on Computer Vi- sion (ECCV), pages 116–131, 2018. 5, 7

[22] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, et al. Imagenet large scale visual recognition challenge. International journal of computer vision, 115(3):211–252, 2015. 5

[24] M. Tan, B. Chen, R. Pang, V. Vasudevan, and Q. V. Le. Mnasnet: Platform-aware neural architecture search for mo- bile. arXiv preprint arXiv:1807.11626, 2018. 1, 2, 3, 5, 7

[26] B. Wu, X. Dai, P. Zhang, Y. Wang, F. Sun, Y. Wu, Y. Tian, P. Vajda, Y. Jia, and K. Keutzer. Fbnet: Hardware-aware efficient convnet design via differentiable neural architecture search. arXiv preprint arXiv:1812.03443, 2018. 1, 2, 3, 4, 5, 6,7,8

(*本文仅代表作者观点,转载请联系原作者)


精彩推荐

「2019 Python开发者日」,这一次我们依然“只讲技术,拒绝空谈”10余位一线Python技术专家共同打造一场硬核技术大会。更有深度培训实操环节,为开发者们带来更多深度实战机会。更多详细信息请咨询13581782348(微信同号)。

推荐阅读:

  • 愚人节,看你们把AI逼成什么样了?

  • 何恺明等人提TensorMask框架:比肩Mask R-CNN,4D张量预测新突破

  • 哪些程序员在围观996.ICU?Python爬取40000条GitHub数据告诉你

  • 儿科医生的眼泪,全被数据看见了

  • 程序员怒了!你敢削减专利奖金,我敢拒绝提交代码!

  • 趣挨踢 | 用大数据扒一扒蔡徐坤的真假流量粉

  • 姚期智提出的"百万富翁"难题被破解? 多方安全计算MPC到底是个什么鬼?

  • 程序媛报告:调查了12,000名女性开发者发现,女性比男性更懂Java!

  • 靠找Bug赚了6,700,000元!他凭什么?

你也可以点击阅读原文,查看大会详情。

旷视提出AutoML新方法,在ImageNet取得新突破 | 技术头条相关推荐

  1. 【重磅】旷视提出MegDetV2:目标检测/实例分割新系统

    点击上方,选择星标或置顶,不定期资源大放送! 阅读大概需要15分钟 Follow小博主,每天更新前沿干货 编辑:Amusi 在COCO 2019/2020 挑战赛中获得最佳结果!该方案包含RPN++. ...

  2. ICCV 2019 | 旷视提出新型抠图方法AdaMatting,刷新最高精度

    本文中由于作者认为抠图可分为 trimap adaptation 和 alpha estimation 两个任务,受此启发,旷视研究院提出了一个简单但强大的抠图框架,称之为 AdaMatting (A ...

  3. 一个方法多个return_CVPR 2020(Oral) | 旷视提出CrowdDetection:密集场景检测新方法:一个候选框,多个预测结果...

    点击上方"CVer",选择加"星标"或"置顶" 重磅干货,第一时间送达 本文转载自:旷视研究院 本文是CVPR 2020论文系列解读第8篇. ...

  4. CVPR 2020 Oral | 旷视提出目前最好的密集场景目标检测算法:一个候选框,多个预测结果...

    作为 CVPR 2020 Oral展示论文之一, 该文提出一种简单却有效的基于候选框的物体检测方法,尤其适用于密集物体检测.该方法通过一个候选框.多个预测框的概念,引入 EMD Loss.Set NM ...

  5. CVPR | 旷视提出Meta-SR:单一模型实现超分辨率任意缩放因子

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 编辑:Sophia 计算机视觉联盟  报道  | 公众号 CVLianMeng 转载于 :旷视 [人工智能资源(书籍 ...

  6. CVPR 2020 | 旷视提出新型人-物交互检测框架,实现当前最佳

    本文转载自旷视研究院 本文提出一种新型人-物交互检测算法,可直接把人-物交互关系检测为一系列的交互点,进一步预测朝向人和物体中心的交互向量:接着,这些交互点可以配对组合人与物体的检测结果,以生成最终的 ...

  7. ICCV2019 | 旷视提出轻量级目标检测网络ThunderNet

    ICCV2019 | 旷视提出轻量级目标检测网络ThunderNet 本文作者:Liyang 作者学校:复旦大学 论文地址:https://arxiv.org/pdf/1903.11752.pdf 源 ...

  8. 【独家】旷视科技CTO唐文斌专访:纯做技术的公司无法持久

    没有什么技术是不能被取代的,旷视科技Face++联合创始人唐文斌认为,算法技术只是手段,最终是产品价值让用户买单.日前,唐文斌接受了新智元专访,谈了旷视科技Face++的商业模式.公司定位以及人才和发 ...

  9. 【无脑刷显卡bios发现的新方法和遇到的新问题】

    A卡刷BIOS更轻松[无脑刷显卡bios发现的新方法和遇到的新问题] 最近偶然看到别人刷显卡BIOS的视频,发现和我之前记录的刷写方法相比轻松很多.仔细观察后发现,我们使用的刷写工具和操作过程很不同, ...

最新文章

  1. php memcache 封装类,PHP 自定义session储存 MEMCACHE 方式类
  2. 100万并发连接服务器笔记之测试端就绪
  3. Python设置常量不可修改的办法
  4. 演练 模拟银行账户业务
  5. android学习笔记---38_采用广播接收者拦截外拔电话,实现原理以及实例源码
  6. python初体验-hello world答案_Anaconda上的python3初体验
  7. 威纶通触摸屏上传错误_威纶通触摸屏程序怎么上传?
  8. 21.iozone的使用与介绍
  9. 让电脑假装蓝屏的C语言,如何自己手动让电脑假装死机
  10. 内存分配方式与内存分配算法
  11. L-半胱氨酸修饰的金纳米粒子(Cys-GNPs)和牛血清白蛋白/生物素化白蛋白纳米粒
  12. 远程服务器下载百度网盘中的内容
  13. idea一直indexing.........
  14. html5 krpano,krpano HTML5 Viewer可以实现全景展示
  15. 【医疗人工智能论文】使用深度强化学习的腹腔镜机器人辅助训练
  16. 基于EasyNVR摄像机流媒体服务器实现RTSP或Onvif监控摄像头Web无插件化直播监控
  17. 泊松分布 (Poisson-Disc)算法
  18. MapReduce教程(01)- 初识MapReduce
  19. leetcode 将杂乱无章的数字排序
  20. 用MPAndoidChart展示搜索到的GPS及卫星信息

热门文章

  1. Android程序完全退出的三种方法
  2. PagedGeometry 笔记03
  3. Java中++i和i++的区别
  4. Spring Cloud(三)服务提供者 Eureka + 服务消费者(rest + Ribbon)
  5. Java getBytes字符集问题
  6. Dinic二分图匹配 || Luogu P3386
  7. thymeleaf 的常见属性
  8. npm-run 自动化
  9. js回调与异步加载的用法
  10. 《妙解Hibernate 3.X》读书笔记一-Hibernate概述及环境搭建