关注上方深度学习技术前沿”,选择“星标公众号”

资源干货,第一时间送达!

批归一化有很多作用,其最重要的一项功能是大幅提升残差网络的最大可训练深度。DeepMind 这项研究探寻了其中的原因,并进行了大量验证。

论文链接:https://arxiv.org/abs/2002.10444

批归一化用处很多。它可以改善损失分布(loss landscape),同时还是效果惊人的正则化项。但是,它最重要的一项功能出现在残差网络中——大幅提升网络的最大可训练深度

DeepMind 近期一项研究找到了这项功能的原因:在初始化阶段,批归一化使用与网络深度的平方根成比例的归一化因子来缩小与跳跃连接相关的残差分支的大小。这可以确保在训练初期,深度归一化残差网络计算的函数由具备表现良好的梯度的浅路径(shallow path)主导。

该研究基于此想法开发了一种简单的初始化机制,可以在不使用归一化的情况下训练非常深的残差网络。研究者还发现,尽管批归一化可以维持模型以较大的学习率进行稳定训练,但这只在批大小较大的并行化训练中才有用。这一结果有助于厘清批归一化在不同架构中的不同功能。

批归一化到底干了什么

跳跃连接和批归一化结合起来可以大幅提升神经网络的最大可训练深度。

DeepMind 研究者将残差网络看作多个路径的集成,这些路径共享权重,但是深度各有不同(与 Veit 等人 2016 年的研究类似),进而发现批归一化如何确保非常深的残差网络(数万层)在训练初期被仅包含几十个层的浅路径主导。原因在于,批归一化使用与网络深度的平方根成比例的因子缩小与跳跃连接相关的残差分支的大小。这就为深度归一化残差网络在训练初期可得到高效优化提供了直观解释,它们只是把具备表现良好的梯度的浅层网络集成起来罢了。

上述观察表明,要想在不使用归一化或不进行认真初始化的前提下训练深度残差网络,只需要缩小残差分支即可。

为了确认这一点,研究者改动了一行代码,实现不使用归一化的深度残差网络训练(SkipInit)。结合额外的正则化后,SkipInit 网络的性能可与经过批归一化的对应网络不相上下(该网络使用常规的批大小设置)。

为什么深度归一化残差网络是可训练的?

残差分支经过归一化后,假设 ˆf_i 的输出方差为 1。每个残差块的方差增加 1,则第 i 个残差块前的激活的预期方差为 i。因此,对于任意遍历第 i 个残差分支的路径,其方差缩小到 1/i,这说明隐藏层激活缩小到 1/√ i。

如图 3 所示,该缩小因子很强大,可确保具备 10000 个残差块的网络 97% 的方差来自遍历 15 个或者更少残差分支的浅路径。典型残差块的深度与残差块总数 d 成比例,这表明批归一化将残差分支缩小到 1/√ d。

图 3:此图模拟了初始化阶段不同深度的路径对 logits 方差的贡献。

为了验证这一观点,研究者评估两个归一化残差网络的不同通道的方差,以及批统计量(batch statistics),如下图 4 所示。

图 4(a) 中,深度线性 ResNet 的跳跃路径方差几乎等于当前深度 i,而每个残差分支末端的方差约为 1。这是因为批归一化移动方差约等于深度,从而证实归一化将残差分支缩小到原本的 1/√ i。

图 4(b) 中,研究者在 CIFAR-10 数据集上评估使用 ReLU 激活函数的卷积 ResNet。跳跃路径的方差仍与深度成正比,但系数略低于 1。这些关联也导致批归一化移动平均数的平方随着深度的增加而增大。

图4。

这就为「深度归一化残差网络是可训练的」提供了简洁的解释。这一观点可以扩展至其他归一化方法和模型架构。

SkipInit:归一化的替代方案

研究者发现,归一化之所以能够确保深度残差网络的训练,是因为它在初始化阶段按与网络深度平方根成正比的归一化因子缩小残差分支。

为了验证该观点,研究者提出了一个简单的替代方法——SkipInit:在每个残差分支末端放置一个标量乘数,并将每个乘数初始化为 α。

图 1:A) 使用批归一化的残差块。B) SkipInit 用一个可学习标量 α 替代了批归一化。

移除归一化之后,只需改动一行代码即可实现 SkipInit。研究者证明,按 (1/ √ d) 或更小的值初始化 α 就可以训练深度残差网络(d 表示残差块数量)。

研究者引入了 Fixup,它也可以确保残差块在初始化时表示 identity。但是,Fixup 包含多个额外组件。在实践中,研究者发现 Fixup 的组件 1 或组件 2 就足以在不使用归一化的前提下训练深度 ResNet-V2 了。

实证研究

下表 1 展示了 n-2 Wide-ResNet 在 CIFAR-10 数据集上训练 200 epoch 后的平均性能,模型深度 n 在 16 到 1000 层之间。

表 1:批归一化使得我们可以训练深度残差网络。然而在残差分支末端添加标量乘数 α 后,不使用归一化也能实现同样的效果。

下表 2 验证了,当 α = 1 时使用 SkipInit 无法训练深度残差网络,因此必须缩小残差分支。研究者还确认了,对于未经归一化的残差网络,只确保激活函数不在前向传播上爆炸还不够(只需在每次残差分支和跳过路径合并时将激活乘以 (1/ √ 2) 即可实现)。

表 2:如果 α = 1,我们无法训练深度残差网络。

批归一化的主要功能是改善损失分布,增加最大稳定学习率。下图 5 提供了 16-4 Wide-ResNet 在 CIFAR-10 数据集上训练 200 epoch 后的平均性能,批大小的范围很大。

图 5:使用批归一化要比不使用获得的测试准确率更高,研究者还能够以非常大的批大小执行高效训练。

为了更好地理解批归一化网络能够以更大批大小进行高效训练的原因,研究者在下图 6 中展示了最优学习率,它可以最大化测试准确率、最小化训练损失。

图 6:使用和不使用批归一化情况下的最优学习率。

研究者在 ImageNet 数据集上对 SkipInit、Fixup 初始化和批归一化进行了实验对比,证明 SkipInit 可扩展至大型高难度数据分布。

下表 3 展示了最优验证准确率。研究者发现卷积层包含偏置可使 SkipInit 的验证准确率出现小幅提升,因此研究者在所有 SkipInit 运行中添加了偏置。SkipInit 的验证性能与批归一化相当,与使用标准批大小 256 的 Fixup 相当。但是,当批大小非常大时,SkipInit 和 Fixup 的性能不如批归一化。

表 3:研究者训练了 90 个 epoch,并执行网格搜索,以找出最优学习率,从而最大化模型在 ImageNet 数据集上的 top-1 验证准确率。

重磅!深度学习技术前沿-微信群已成立

扫码添加群助手可申请加入 深度学习技术前沿 微信群,旨在交流深度学习方面的学习、科研、工程项目等内容,其中研究方向主要包括:图像识别、图像分类、目标检测、图像分割、人脸识别、模型剪枝与压缩、自然语言处理、知识图谱、强化学习、NAS、GAN等。并且还会第一时间在群中分享一线大厂求职内推资料。

一定要备注:研究方向+学校/公司+姓名(如图像分割+浙大+李四),按照格式备注,可更快被通过且邀请进群。(广告商、博主请绕道!)

???? 长按识别,即可加群

???? 长按识别,即可关注

觉得有用麻烦给个在看啦~  

【经典概念】一文详解Batch Normalization!!!相关推荐

  1. 详解Batch Normalization及其反向传播

    ↑ 点击蓝字 关注视学算法 作者丨风行天上@知乎 来源丨https://zhuanlan.zhihu.com/p/45614576 极市导读 本文介绍了Batch Normalization的过程及其 ...

  2. 【卷积神经网络结构专题】一文详解AlexNet(附代码实现)

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! [导读]本文是卷积神经网络结构系列专题第二篇文章,前面我们已经介绍了第一个真正意义 ...

  3. 机器学习经典算法决策树原理详解(简单易懂)

    ↑ 点击上方[计算机视觉联盟]关注我们 最经典的决策树算法有ID3.C4.5.CART,其中ID3算法是最早被提出的,它可以处理离散属性样本的分类,C4.5和CART算法则可以处理更加复杂的分类问题, ...

  4. 一文详解 ChatGPT:背后的技术,数据,未来发展

    文章目录 一文详解 ChatGPT ChatGPT背后的技术 基于 Transformer 的预训练语言模型 提示学习与指令精调 思维链(Chain of Thought,COT) 基于人类反馈的强化 ...

  5. 一文详解决策树算法模型

    AI有道 一个有情怀的公众号 上文我们主要介绍了Adaptive Boosting.AdaBoost演算法通过调整每笔资料的权重,得到不同的hypotheses,然后将不同的hypothesis乘以不 ...

  6. ELKElasticSearch5.1基础概念及配置文件详解【转】

    1. 配置文件 elasticsearch/elasticsearch.yml 主配置文件 elasticsearch/jvm.options jvm参数配置文件 elasticsearch/log4 ...

  7. python装饰器详解-Python装饰器基础概念与用法详解

    本文实例讲述了Python装饰器基础概念与用法.分享给大家供大家参考,具体如下: 装饰器基础 前面快速介绍了装饰器的语法,在这里,我们将深入装饰器内部工作机制,更详细更系统地介绍装饰器的内容,并学习自 ...

  8. OpenCV-Python实战(12)——一文详解AR增强现实

    OpenCV-Python实战(12)--一文详解AR增强现实 0. 前言 1. 增强现实简介 2. 基于无标记的增强现实 2.1 特征检测 2.2 特征匹配 2.3 利用特征匹配和单应性计算以查找对 ...

  9. 一文数学数模-相关性分析(二)斯皮尔曼相关(spearman)相关性分析一文详解+python实例代码

    前言 相关性分析算是很多算法以及建模的基础知识之一了,十分经典.关于许多特征关联关系以及相关趋势都可以利用相关性分析计算表达.其中常见的相关性系数就有三种:person相关系数,spearman相关系 ...

最新文章

  1. WF4 Beta,RC版文章总结
  2. Xcode 中设置部分文件ARC支持
  3. Spring2.5.6学习笔记-实例化bean的几种方法
  4. Java8 HashMap 扩容机制与线程安全分析
  5. Thirft框架介绍
  6. 为什么线程池里的方法会执行两次_新手一看就懂的线程池
  7. linux 模拟运行 微信,Ubuntu 18.04 安装微信(Linux通用)
  8. FPGA积沙成塔(目录篇)
  9. 从 A/Looper: Could not create epoll instance. errno=24 错误浅谈解决各种 bug 的思路
  10. 凸优化第九章无约束优化 9.1 无约束优化问题
  11. solidworks经典实例网盘下载_三菱 PLC FX3U 程序无线下载经典实例
  12. 终于明白为什么人人都爱Django了,Django果然天下第一
  13. angularjs 获取复选框的值_如何利用Python批量获取天眼查企业信息?
  14. STM32学习笔记之IIC(1) ADS1115
  15. 调整Oracle用户密码期限及错误登录次数
  16. 无卷积结构(那就纯ransformer)的参考图像分割:ReSTR: Convolution-free Referring Image Segmentation Using Transformers
  17. vue项目接入eslint、prettier、husky+lint-staged
  18. 英伟达创始人出生 | 历史上的今天
  19. Windows环境下32位汇编语言程序设计(典藏版)(含CD光盘1张)
  20. ubuntu系统下u盘只读的解决办法

热门文章

  1. java如何读取excel文件
  2. 开始iOS 7中自动布局教程(一)
  3. 多线程断点下载开发总结(二)- 多线程写文件
  4. 读去excel文件内容写入数据库
  5. 操作系统:小和尚打水+老和尚喝水经典同步问题实现 菜鸟的解题全过程(附具体代码)
  6. 2021.8.21 网易秋招开发笔试(题目 + java代码)
  7. (Python)numpy的argmax用法
  8. 10大排序算法JAVA源码实现
  9. 批处理,%~d0 cd %~dp0 代表什么意思
  10. C++ Openssl AES GCM 128bits代码示例,可wins10的visual studio 2017 中直接运行