一、概述

        EfficientNet是一种卷积神经网络架构和缩放方法,它使用复合系数统一缩放深度/宽度/分辨率的所有维度。与任意缩放这些因子的传统做法不同,EfficientNet 缩放方法使用一组固定缩放系数统一缩放网络宽度、深度和分辨率。例如,如果我们想使用倍的计算资源,那么我们可以简单地增加网络深度, 宽度, 和图像大小, α,β,γ是由原始小模型上的小网格搜索确定的常数系数。EfficientNet 使用复合系数φ以有原则的方式统一缩放网络宽度、深度和分辨率。

图 2. 模型缩放。 (a) 是一个基线网络示例; (b)-(d) 是常规缩放,仅增加网络宽度、深度或分辨率的一维。 (e) 是我们提出的复合缩放方法,它以固定比例均匀缩放所有三个维度。

复合缩放方法的直觉是,如果输入图像更大,那么网络需要更多的层来增加感受野,需要更多的通道来捕捉更大图像上更细粒度的模式。

基础 EfficientNet-B0 网络基于MobileNetV2的bottleneck residual blocks,以及squeeze-and-excitation blocks。

论文作者使用神经架构搜索来设计一个新的基线网络并对其进行扩展以获得一系列模型,称为 EfficientNets,它们比以前的 ConvNets 实现了更好的准确性和效率。 特别是,我们的 EfficientNet-B7 在 ImageNet 上实现了最先进的 84.3% 的 top-1 准确度,同时比现有的最佳 ConvNet 小 8.4 倍,推理速度快 6.1 倍。 我们的 EfficientNets 在 CIFAR-100 (91.7%)、Flowers (98.8%) 和其他 3 个迁移学习数据集上也能很好地迁移并实现最先进的准确度,而且参数要少一个数量级。

图 1. 模型大小与 ImageNet 准确度。 所有数字均适用于单一作物、单一模型。 我们的 EfficientNets 明显优于其他 ConvNets。 特别是,EfficientNet-B7 实现了最新的 84.3% top-1 准确率,但比 GPipe 小 8.4 倍,快 6.1 倍。 EfficientNet-B1 比 ResNet-152 小 7.6 倍,快 5.7 倍。 详情见表 2 和表 4。

二、相关工作

1、卷积网络精度

自从 AlexNet(Krizhevsky 等人,2012 年)赢得 2012 年 ImageNet 比赛以来,ConvNets 通过变大变得越来越准确:而 2014 年 ImageNet 冠军 GoogleNet(Szegedy 等人,2015 年)实现了 74.8% 的 top-1 准确率,约为 6.8 M 个参数,2017 年 ImageNet 获胜者 SENet (Hu et al., 2018) 在 145M 参数下实现了 82.7% 的 top-1 准确率。最近,GPipe (Huang et al., 2018) 使用 557M 参数进一步将最先进的 ImageNet top-1 验证准确率推至 84.3%:它太大了,只能使用专门的管道并行库进行训练通过对网络进行分区并将每个部分分散到不同的加速器。虽然这些模型主要是为 ImageNet 设计的,但最近的研究表明,更好的 ImageNet 模型在各种迁移学习数据集(Kornblith et al., 2019)和其他计算机视觉任务,例如物体检测(He et al., 2016; Tan et al., 2019)。尽管更高的精度对许多应用程序来说至关重要,但我们已经达到了硬件内存限制,因此进一步提高精度需要更高的效率。

2、卷积网络效率

Deep ConvNets 经常被过度参数化。模型压缩(Han et al., 2016; Heet al., 2018; Yang et al., 2018)是通过以效率换取准确性来减小模型大小的常用方法。随着手机变得无处不在,手工制作高效的移动尺寸卷积网络也很常见,例如 SqueezeNets(Iandola et al., 2016; Gholami et al., 2018)、MobileNets(Howard et al., 2017; Sandler et al., 2018) 和 ShuffleNets (Zhang et al., 2018; Ma et al., 2018)。最近,神经架构搜索在设计高效的移动尺寸卷积网络中变得越来越流行(Tan et al., 2019; Cai et al.,2019),并且通过广泛调整网络宽度、深度、卷积核实现了比手工制作的移动卷积网络更好的效率类型和尺寸。然而,尚不清楚如何将这些技术应用于具有更大设计空间和更昂贵调整成本的大型模型。在本文中,我们旨在研究超越最先进精度的超大型卷积网络的模型效率。为了实现这一目标,我们采用了模型缩放。

3、模型缩放

有很多方法可以针对不同的资源约束来扩展 ConvNet:ResNet(He et al.,2016)可以通过调整网络深度(#layers)来缩小(例如,ResNet-18)或放大(例如,ResNet-200), 而WideResNet (Zagoruyko & Komodakis, 2016) 和 MobileNets (Howard et al., 2017) 可以通过网络宽度 (#channels) 进行缩放。 众所周知,更大的输入图像大小将有助于提高 FLOPS 开销的准确性。 尽管先前的研究(Raghu et al., 2017;Lin & Jegelka, 2018; Sharir & Shashua, 2018; Lu et al.,2018)表明网络深度和宽度对于 ConvNets 的表达能力都很重要,但它仍然是一个悬而未决的问题 如何有效地扩展 ConvNet 以实现更好的效率和准确性。 我们的工作系统地和经验地研究了网络宽度、深度和分辨率的所有三个维度的 ConvNet 缩放。

三、复合模型缩放

1、问题描述

2、缩放维度

传统方法大多在以下维度之一中缩放 ConvNet:网络宽度 (w)、深度 (d) 和分辨率 (r) 系数

上图. 放大具有不同网络宽度 (w)、深度 (d) 和分辨率 (r) 系数的基线模型。 具有更大宽度、深度或分辨率的更大网络往往会获得更高的准确度,但准确度增益在达到 80% 后会迅速饱和,这表明了一维缩放的局限性。

3、复合缩放

我们凭经验观察到不同的缩放维度不是独立的。 直观地说,对于更高分辨率的图像,我们应该增加网络深度,这样更大的感受野可以帮助捕获更大图像中包含更多像素的相似特征。 相应地,我们也应该在分辨率较高时增加网络宽度,以便在高分辨率图像中捕获更多像素更多的细粒度图案。 这些直觉表明,我们需要协调和平衡不同的缩放维度,而不是传统的单维度缩放。

在本文中,我们提出了一种新的复合缩放方法,它使用复合系数以有原则的方式统一缩放网络宽度、深度和分辨率:

其中是可以通过小网格搜索确定的常数。

直观地说,是一个用户指定的系数,它控制有多少资源可用于模型缩放,而指定如何将这些额外资源分别分配给网络宽度、深度和分辨率。

值得注意的是,常规卷积运算的 FLOPS 与  成正比,即网络深度加倍将使 FLOPS 加倍,但网络宽度或分辨率加倍将使 FLOPS 增加四倍。 由于卷积运算通常在 ConvNets 中占主导地位,因此使用等式 3 缩放 ConvNet 将使总 FLOPS 大约增加

在本文中,我们约束使得对于任何新的 ,总 FLOPS 将大约增加

四、EfficientNet架构

由于模型缩放不会改变基线网络中的层算子,因此拥有良好的基线网络也很关键。 我们将使用现有的 ConvNets 评估我们的缩放方法,但为了更好地展示我们的缩放方法的有效性,我们还开发了一个新的移动尺寸基线,称为 EfficientNet。

受 (Tan et al., 2019) 的启发,我们通过利用优化准确性和 FLOPS 的多目标神经架构搜索来开发我们的基线网络。具体来说,我们使用与 (Tan et al., 2019) 相同的搜索空间,并使用 作为优化目标,其中表示准确度和模型 m 的 FLOPS,T 是目标 FLOPS,w=-0.07 是用于控制准确性和 FLOPS 之间权衡的超参数。

与(Tan et al., 2019; Cai et al., 2019)不同,这里我们优化 FLOPS 而不是延迟,因为我们没有针对任何特定的硬件设备。我们的搜索产生了一个有效的网络,我们命名为 EfficientNet-B0。由于我们使用与 (Tan et al., 2019) 相同的搜索空间,因此架构类似于 MnasNet,除了我们的 EfficientNet-B0 由于更大的 FLOPS 目标(我们的 FLOPS 目标为 400M)而略大一些。表 1 显示了 EfficientNet-B0 的架构。它的主要构建块是移动倒置瓶颈 MBConv (Sandler et al., 2018; Tan et al., 2019),我们还添加了挤压和激励优化 (Hu et al., 2018)。

表 1. EfficientNet-B0 基线网络

表 2. ImageNet 上的 EfficientNet 性能结果(Russakovsky 等人,2015 年)。 所有 EfficientNet 模型均使用等式 3 中的不同复合系数从我们的基线 EfficientNet-B0 缩放。具有相似 top-1/top-5 精度的 ConvNet 被分组在一起以进行效率比较。 与现有的 ConvNets 相比,我们扩展的 EfficientNet 模型始终将参数和 FLOPS 减少一个数量级(高达 8.4 倍的参数减少和高达 16 倍的 FLOPS 减少)。

五、讨论/结论

为了从 EfficientNet 架构中分离出我们提出的缩放方法的贡献,图 8 比较了相同 EfficientNet-B0 基线网络的不同缩放方法的 ImageNet 性能。 一般来说,所有缩放方法都以更多 FLOPS 为代价来提高精度,但我们的复合缩放方法可以比其他单维缩放方法进一步提高精度高达 2.5%,这表明我们提出的复合缩放的重要性。

图 8. 使用不同方法扩展 EfficientNet-B0。

为了进一步理解为什么我们的复合缩放方法比其他方法更好,表7 比较了几个具有不同缩放方法的代表性模型的类激活图 (Zhou et al., 2016)。 所有这些模型都是从相同的基线扩展的,它们的统计数据如表 7 所示。图像是从 ImageNet 验证集中随机挑选的。 如图所示,具有复合缩放的模型倾向于关注具有更多对象细节的更相关区域,而其他模型要么缺乏对象细节,要么无法捕获图像中的所有对象。

在论文中,作者系统地研究了 ConvNet 的缩放,并确定仔细平衡网络宽度、深度和分辨率是一个重要但缺失的部分,这使我们无法获得更好的准确性和效率。 为了解决这个问题,我们提出了一种简单而高效的复合缩放方法,它使我们能够以更原则的方式轻松地将基线 ConvNet 扩展到任何目标资源约束,同时保持模型效率。 以此为动力通过复合缩放方法,我们证明了移动大小的 EfficientNet 模型可以非常有效地缩放,在 ImageNet 和五个常用的迁移学习数据集上,以更少的参数和 FLOPS 超过最先进的精度。

原论文地址

https://arxiv.org/abs/1905.11946https://arxiv.org/abs/1905.11946

机器学习笔记 - EfficientNet论文解读相关推荐

  1. 机器学习笔记 - JigsawNet论文解读

    一.摘要 使用卷积神经网络和基于循环的组合的碎片图像重组 这里提出了一种新的算法,可以将任意切碎的图像重新组装到其原始状态.现有的重组管道通常由一个局部匹配阶段和一个全局组合阶段组成.在局部阶段,片段 ...

  2. 机器学习笔记 - ENet论文解读

    一.概述 实时执行逐像素语义分割的能力在移动应用程序中至关重要. 最近针对此任务的深度神经网络的缺点是需要大量的浮点运算,并且运行时间长,这阻碍了它们的可用性. 在本文中,我们提出了一种名为 ENet ...

  3. NeurIPS 2019年十篇机器学习领域的论文解读:来自谷歌、Facebook、普林斯顿大学、斯坦福大学最新研究成果

    本文整理总结了NeurIPS 2019上十篇机器学习领域的论文,这些论文来自谷歌.Facebook.普林斯顿大学.斯坦福大学等团队的最新研究成果,供大家参考学习. Differentiable Ran ...

  4. 机器学习笔记 - YOLOv7 论文简述与推理

    一.概述 YOLO 系列对象检测模型已经取得了长足的进步. YOLOv7 是这个著名的基于锚的单次目标检测器系列的最新成员. 它带来了一系列改进,包括最先进的准确性和速度. 以 COCO 数据集为基准 ...

  5. 机器学习:MixMatch 论文解读

    最近谷歌出了一篇有关半监督学习的 paper,几乎可以说是到目前为止,半监督学习领域的集大成者了,在常用的数据集上,取得了非常惊人的效果.这篇 paper,基本把之前半监督学习领域,有用的方式方法都尝 ...

  6. 机器学习笔记 - YOLO家族简介

    一.背景概述 目标检测是计算机视觉中最重要的课题之一.大多数计算机视觉问题都涉及检测视觉对象类别,如行人.汽车.公共汽车.人脸等.这一领域不仅限于学术界,而且在视频监控.医疗保健.车载传感和自动驾驶. ...

  7. 【论文解读】ICLR 2021 |可信多模态机器学习:兼听则明,信而有征

    论文解读:韩宗博 硕士研究生 | 天津大学 智能与计算学部 指导老师:张长青,天津大学副教授,博士生导师 1. 方法动机 多模态人工智能技术正在被广泛应用到智能医疗.无人系统等重要领域,设计精准.可靠 ...

  8. 【NeurIPS100】谷歌、Facebook、斯坦福等十篇机器学习最新论文解读

    NeurIPS 2019虽然刚刚落幕,但是学习的任务还远未结束. 今天我们整理了NeurIPS 2019上十篇机器学习领域的论文,这些论文来自谷歌.Facebook.普林斯顿大学.斯坦福大学等团队的最 ...

  9. 论文解读《Evaluating the visualization of what a Deep Neural Network has learned》–阅读笔记

    本文属于原创,转载请注明出处 *本论文解读的初衷: 1.由于某些原因,最近有关注到神经网络可解释性与可视化方向的发展. 2.本人习惯阅读优秀的博文后直接点赞收藏,而这篇却没有搜到相关解读,不知道是不是 ...

  10. 《基于机器学习的雷达辐射源分选与识别技术研究》论文解读

    <基于机器学习的雷达辐射源分选与识别技术研究>论文解读 Data:2023-2-04 Ref: 李雪琼, "基于机器学习的雷达辐射源分选与识别技术研究," PhD Th ...

最新文章

  1. php从ftp下载文件到本地,php使用ftp实现文件上传与下载功能
  2. C++ 标准库中的异常
  3. android 入门-工序
  4. 为AI学术小白铺平道路,NeurIPS 2019推出New In ML2019特别会议
  5. js将百度坐标转为wgs84
  6. Html5 小球键盘移动
  7. 手机按三角返回页面上一页_小猿圈微信小程序跳转页面都有哪些?
  8. 清除浮动(HTML、CSS)
  9. matlab disp函数_从零开始的matlab学习笔记——(13)符号计算中的多项式
  10. Word另存为pdf时提示“由于出现意外错误,导出失败”的解决方案
  11. 解读《大话西游之大圣娶亲》
  12. Forth 系统实现
  13. Web IDE落地全记录(一)
  14. 河南科技学院计算机对口分数线,2010年河南科技学院对口招生分数线是多少?...
  15. springboot 过滤器
  16. Pseudo-3D Residual Networks算法的pytorch代码
  17. 用计算机怎样搜wifi网,如何用电脑设置wifi?用电脑设置wifi方法介绍
  18. vlan配置实例详解_网工知识角|MUXVLAN技术详解,基本原理一篇搞定
  19. [点点搬家]与Perl厮混后感觉嘚儿嘚儿的
  20. Python Web项目

热门文章

  1. 自娱自乐 中秋快乐 代码
  2. 火车头怎么采集php的,火车采集器采集入库教程
  3. CSDN如何修改用户名(CSDN ID)、用户昵称以及自定义博客域名等
  4. Adb connection Error:远程主机强迫关闭了一个现有的连接。
  5. ipad远程控制windows电脑
  6. 作业 - 加密解密和CA
  7. Springboot之苹果内购支付
  8. 浅析Promise的then方法
  9. 历练熟女给老实木讷男孩的恋爱建议(转贴)
  10. 翟菜花:中粮我买网,十年未出线