Batch Normalization

  • 协变量偏移
  • 神经网络前向传播
  • 引起的问题
  • Batch Normalization的登场
    • 为什么存在 β \beta β和 γ \gamma γ?
    • 预测时如何使用BN?
    • BN放在哪?
    • BN的作用
  • 与Layer Normalization有什么区别?
  • 参考

在神经网络模型中,批量归一化(Batch Normalization)已然是很常见的一种操作,自2015年被谷歌提出以来,由于能够有效提升网络训练效率,已被广泛应用于处理图像相关的网络。

为了透彻理解BN究竟为何而提出,又起到了什么作用,笔者搜索诸多博客、书籍资料并将内容梳理成本文,以作备忘。

协变量偏移

在机器学习中,一般会假设模型的输入数据的分布是稳定的。

若是模型输入数据的分布发生变化,这种现象被称为 协变量偏移(covariate shift)

值得一提的是,模型的训练集和测试集的分布不一致,也属于协变量偏移现象。

同理,在一个复杂的机器学习系统中,也会要求系统的各个子模块在训练过程中输入分布是稳定的。若是不满足这一条件,则会称为内部协变量偏移(internal covariate shift, ICS)

以深度神经网络为例,在训练过程中神经网络内部的数据分布发生变化,便是一种典型的内部协变量偏移现象。

为什么内部的数据分布会发生变化呢?我们通过一个全连接网络进行前向传播的实例来一探究竟。

神经网络前向传播

对于全连接网络的一层来说,设一个Batch的输入 x 1 x_1 x1​,隐藏层的权重为 W 1 W_1 W1​,两者矩阵相乘得到输出为 y 1 y_1 y1​,经过激活函数后得到 z 1 z_1 z1​。


在训练过程中,当一次前向传播结束后,神经网络将会反向传播更新隐藏层参数 W 1 W_1 W1​为 W 2 W_2 W2​。

当下一个Batch的输入 x 2 x_2 x2​进入该层,与更新后的隐藏层参数 W 2 W_2 W2​计算得到输出 y 2 y_2 y2​,经过激活函数后得到 z 2 z_2 z2​。


由于隐藏层参数的更新,相比于 z 1 z_1 z1​,该层的输出数据 z 2 z_2 z2​的分布发生变化,进而下一层的输入数据分布发生变化,这便是发生了内部协变量偏移现象。

当前层的输出分布发生变化,即是下一层的输入分布发生变化,此处不必纠结这一问题。

用更为一般化的语言总结这种现象就是:

在训练过程中,由于隐藏层参数的更新,同分布不同批次的数据进入网络同一层后的输出分布发生变化。

ICS一般指的是不同批次的数据进入同一层时的输出分布变化,除此之外,还有几种“分布不同”的情况:

  • 同批次的数据,每穿过一层网络后数据分布均会发生变化。
  • 同批次的数据,不同的样本点分布可能不同。比如一个样本点 d 1 d_1 d1​为[1.2, 1.4],另一个样本点 d 2 d_2 d2​是[40, 66],两者的量级不同, d 2 d_2 d2​的数据范围很大,那么会导致 d 2 d_2 d2​的参数 W 2 W_2 W2​梯度很大,更新速度更快,反之 W 1 W_1 W1​的更新速度很慢,于是模型被迫只能使用较小的学习率,以防 W 2 W_2 W2​更新时迈的步子太大,导致模型收敛速度慢。

那么,这种内部协变量偏移现象会带来什么问题呢?

引起的问题

  • 收敛速度慢,学习不稳定

本质上,神经网络学习的是数据分布,ICS现象使得网络每一层需要不断适应输入数据的分布变化

试想,网络刚刚才适应学习了这种分布,然而下一个批次又需要学习另一种分布,像这样“推倒重来”的学习过程很不稳定,从而导致收敛速度降低。

另一方面,由于之前提到的同一批数据中不同样本点的分布可能不同等原因,为保证训练的稳定性和收敛性,在实际应用中往往会采用较小的学习率,防止参数更新过快,从而导致收敛速度降低。

  • 产生梯度消失问题

经过网络前几层的变换,很可能使得后几层的输入数据变得过大或过小,从而掉进激活函数(Sigmoid、Tanh)的饱和区。


饱和区的梯度变化很不明显,会产生梯度消失问题,进而导致学习过程停止。

我们希望的是,数据落入激活函数中间的非饱和区。

为了降低内部协变量偏移所带来的负面影响,在训练过程中一般会采用非饱和型激活函数(ReLU)、精细的网络参数初始化,保守的学习率,但这不仅会使得网络的学习速度太慢,还会使得最终效果特别依赖于网络的初始化。

Batch Normalization的登场

批量归一化(Batch Normalization)作为英雄横空出世,一举解决上述问题。

批量归一化可以看作是在每一层输入和上一层输出之间加入了一个新的计算层,对数据的分布进行额外的约束。

其算法流程如图所示:


核心即为这一公式:

y ( k ) = γ ( k ) x ( k ) − μ ( k ) ( σ ( k ) ) 2 + ϵ + β ( k ) y^{(k)} = \gamma^{(k)}\frac{x^{(k)}-\mu^{(k)}}{\sqrt{(\sigma^{(k)})^2+\epsilon}}+\beta^{(k)} y(k)=γ(k)(σ(k))2+ϵ ​x(k)−μ(k)​+β(k)

其中,上标 k k k表示数据的第 k k k维,BN在一个批次数据的各个维度上独立进行; x ( k ) x^{(k)} x(k)是输入数据, y ( k ) y^{(k)} y(k)是BN后的输出数据; μ ( k ) \mu^{(k)} μ(k)和 σ ( k ) \sigma^{(k)} σ(k)分别是输入数据当前batch的均值和标准差, β ( k ) \beta^{(k)} β(k)和 γ ( k ) \gamma^{(k)} γ(k)分别是可学习的平移参数和缩放参数; ϵ \epsilon ϵ是防止分母为0的一个小量。

你或许会觉得很眼熟,这不是一个标准化的过程嘛?标准化的公式如下:

y = x − μ σ y = \frac{x-\mu}{\sigma} y=σx−μ​

此处需要强调的是,归一化与标准化并不是一回事。

将数据变化为均值为0,方差为1的分布这一过程被称为标准化(Standardization),而归一化(Normalization)一般指的是将一列数据变化到某个固定区间(范围)中。

可以看出,批量归一化相当于在标准化的基础上利用参数 β \beta β和 γ \gamma γ进一步修正分布,至于为何称为批量归一化这一点我并未深入探究。

那么,很自然地会引出一个问题,参数 β \beta β和 γ \gamma γ起到什么作用呢?

为什么存在 β \beta β和 γ \gamma γ?

  • 保留网络各层在训练过程中的学习成果,使BN模块具有自我关闭能力

如若没有 β \beta β和 γ \gamma γ,那么BN就会退化为普通的标准化(Standardization)。训练过程中尽管参数在更新,但是网络各层的输出分布始终不变(均值为0,标准差为1),无法有效学习。

添加 β \beta β和 γ \gamma γ后,网络可以为每个神经元自适应地学习一个量身定做的分布(均值为 β \beta β,标准差为 γ \gamma γ),保留每个神经元的学习成果。

从另一个角度来说,若是在训练过程中,网络发现目前的标准化操作并不有效,便可以通过 β \beta β和 γ \gamma γ参数再次修正分布的变化,比如当 γ \gamma γ等于 σ σ σ, β \beta β等于 μ μ μ,此时数据分布再次恢复原状,相当于进行了“反标准化”。换句话说,参数 β \beta β和 γ \gamma γ使得BN模块具有自我关闭能力,当BN导致特征分布被破坏,或者使网络泛化能力减弱时,可以通过这两个参数将其关闭。

对于标准化再修正分布这一过程,知乎@soplars文章中的一张图可以直观地展示出来。

  • 保证激活单元的非线性表达能力

如前所述,没有 β \beta β和 γ \gamma γ时,BN的输出分布始终是均值为0,标准差为1。对于Sigmoid、Tanh等激活函数来说,数据将会落在近似线性的非饱和区域,这样确实有效缓解了梯度消失问题。

然而,我们也不希望数据全部挤在线性区,因为这样无法利用非线性区,会使得模型丧失非线性特征的提取能力,以及其非线性表达能力

因此,通过添加参数 β \beta β和 γ \gamma γ为分布带来一定的偏移,我们希望能够找到线性和非线性的平衡点,既能享受非线性的较强表达能力,又能享受线性区较大的下降梯度。

  • 引入噪音,防止过拟合

引入参数 β \beta β和 γ \gamma γ,适当地增加噪音,有助于增加鲁棒性,防止过拟合。

预测时如何使用BN?

预测的时候只有单个样本,无法计算均值和方差,该如何进行BN操作呢?

我们在训练时对于每个batch可以计算出相应的均值和标准差,对这些batch对应的均值和标准差进行加权求和即可。

之所以要使用加权求和的方式,是因为对于同一层网络来说,后进来的batch数据其所对应的均值和标准差更加接近实际测试时输入数据对应的均值和标准差(因为训练后期的参数更贴近于测试时的网络参数),所以后进来的batch数据理应有更高的权重,使得计算得到的均值和标准差更加接近数据集的均值与标准差。

还有一种方法是,使用训练数据集整体的均值和标准差,固定网络参数后将所有数据输入进行计算,这种方法效率很低,计算代价大。

BN放在哪?

  • 将BN放在激活函数之前

如前所述,可以保证激活单元的非线性表达能力,缓解梯度消失问题。

同时,可以有效避免BN破坏非线性特征的分布。

  • 将BN放在激活函数之后

当使用ReLU作为激活函数时,它不存在像Sigmoid、Tanh一样的饱和区问题,所以可以将BN放置于激活函数之后。

避免数据在激活函数之前被转化成相似的模式,从而使得非线性特征分布趋于同化。

在原论文中,BN被放置于激活函数之前,但学术界和工业界也有不少人倾向于将BN放置于激活函数之后,且从后续的发展来看貌似后者的做法更加主流。

BN究竟应该放在什么位置,仍是一个存争议的问题。

BN的作用

上文尽可能清晰地讲解了BN的原理及其动机,本节系统地梳理BN可以起到什么作用。

  • 可以采用较大学习率,加快收敛速度

BN使得每一层的输入输出同分布,此时数据处于同一量级,不同参数的梯度不再有差别,无需因为梯度大的参数而使用较小的学习率,因此可以使用较大的学习率,加快收敛速度。

  • 避免梯度消失和梯度爆炸问题

每次都把数据分布调整到标准位置上,因此进入激活函数时不存在梯度消失和梯度爆炸的问题。

  • 对参数初始化不敏感

直观上来说,在批量归一化下参数初始值 W W W和 k W kW kW所计算得到的结果是相同的,都会拉回到均值为0,标准差为1,因此这会使模型对参数初始化的方法不那么敏感,而不会像之前所说的“特别依赖于初始化”。

B N ( k W ) = γ k W x − k μ k σ + β = γ W x − μ σ + β = B N ( W ) BN(kW) = \gamma \frac{kWx-k\mu}{k\sigma} + \beta = \gamma \frac{Wx-\mu}{\sigma} + \beta = BN(W) BN(kW)=γkσkWx−kμ​+β=γσWx−μ​+β=BN(W)

  • 一定程度上防止过拟合

对散乱的数据分布进行归一化,可以一定程度上减小噪音,防止模型学习无用的特征,导致泛化能力变差,从而导致过拟合。

引入参数 β \beta β和 γ \gamma γ,适当地增加噪音,有助于增加鲁棒性,防止过拟合。

这里更多的是基于BN效果好的直觉解释,并无权威验证,意会即可,无需较真。

与Layer Normalization有什么区别?

我们知道,在Transformer中使用了Layer Normalization,即LN,而非本文所提的BN。这是为什么呢?两者的区别又在于什么?

Batch Normalization 是对一批样本的同一维度特征做归一化, Layer Normalization 是对单个样本的所有维度特征做归一化。

BN用在图像较多,LN用在文本较多,其原因在于LN更适合处理变长序列,比如文本。

假如现在需要计算第 k k k维特征的均值与方差,但由于序列的长度不固定,可能会出现下图这种锯齿状:


而LN不会存在这种问题,其在样本内计算均值与方差,不受序列长度的影响。

参考

《百面深度学习》《百面机器学习》

一篇极为全面的BN介绍博客,本文很多内容借鉴于此篇博客,感谢分享!

https://blog.csdn.net/weixin_44492824/article/details/123266953

各种归一化的总结

深度学习中的BN,LN,IN,GN总结

讲解Batch Normalization的系列

理解Batch Normalization系列1–原理(清晰解释)

『Batch Normalization』Batch Normalization一文吃透相关推荐

  1. 『中秋赏月』程序员用文心大模型带你玩转不一样的中秋

    『中秋赏月』文心大模型带你玩转不一样的中秋 中秋 文心大模型使用 安装wenxin_api 利用ERNIE-ViLG文生图模型生成图片 下载生成的图片 使用ERNIE 3.0模型,生成有关中秋的佳句 ...

  2. 优化方法总结 Batch Normalization、Layer Normalization、Instance Normalization 及 Group Normalization

    目录 从 Mini-Batch SGD 说起 Normalization 到底是在做什么 Batch Normalization 如何做 3.1 前向神经网络中的 BN 3.2 CNN 网络中的 BN ...

  3. 7种Normalization总结(batch normalization,layer normalization,Weight Normalization,Cosine Normalization)

    文章目录 七种normalization 1. Normalization 动机 原理 优点 缺点 2. Batch Normalization 动机 原理 优点 缺点 3. Layer Normal ...

  4. 『教师节』程序猿用文心大模型带你一键加速祝福,祝老师们节日快乐

    『教师节』文心大模型带你一键加速祝福 文心大模型助力教师节 猜猜他谁 教师节&&中秋节 中秋助力 大模型使用指南 教师节助力 安装wenxin_api第三方库 定义我们的祝福主题与内容 ...

  5. PyTorch框架学习十八——Layer Normalization、Instance Normalization、Group Normalization

    PyTorch框架学习十八--Layer Normalization.Instance Normalization.Group Normalization 一.为什么要标准化? 二.BN.LN.IN. ...

  6. 13 个适合『中级开发者』练手的项目

    本文整理自『机器之心』 编辑 / sitin 本文将列出十三个适合中级 Python 开发人员练手的项目. Web 项目设计 1.内容聚合器(Content Aggregator) 1. 技术细节 该 ...

  7. 『软件推荐』PanDownload出安卓版了

    安卓资源分享目录 安卓资源分享目录 PanDownload出安卓版了 内测版,请大家低调使用!只支持下载公开链接. 『软件推荐』PanDownload出安卓版了 内测版,请大家低调使用!只支持下载公开 ...

  8. 『重磅福利』提供WoS数据C1和EM重复字段清洗服务

    本文原文链接 "因果关系推断"公众号及时发现"WoS数据库更新后导入VOSviewer出错的原因"(←猛戳超链接),并在公众号.CSDN社区.知乎.简书等技术平 ...

  9. 拒绝面试造火箭,工作拧螺丝——Java经典面试题分享『带答案』

    本文转载自:拒绝"面试造火箭,工作拧螺丝"--Java经典面试题分享『带答案』 1. Java三大版本 Java2平台包括标准版(J2SE).企业版(J2EE)和微缩版(J2ME) ...

最新文章

  1. 浙大绘制首个地球微生物“社会关系”网络
  2. MFC Dll的详细介绍及创建
  3. Linux 上的几个命令 dd, mv, rename
  4. eclipse集成lombok了但是无法使用_编码神奇Lombok!搭配IDEA更爽哦!
  5. 新浪微博-企业微博运营手册
  6. 信息学奥赛一本通(C++)在线评测系统——基础(一)C++语言—— 1041:奇偶数判断
  7. 自定义权限 android,Android权限控制之自定义权限
  8. C++ 多态之纯虚函数和抽象类01
  9. python导出mysql授权语句
  10. tensorflow学习笔记一:安装调试
  11. hadoop和spark的区别和联系
  12. 票据的生命周期与人的灵魂
  13. 读数据库所有表和表结构的sql语句了(mssql)
  14. ajaxFileUpload.js插件支持多文件上传的方法
  15. JS学习总结(1)——基础知识
  16. 移动端车牌识别sdk如何开发app
  17. SHA生成消息摘要的过程
  18. wlacm 铲雪车snow 题解
  19. js-beautify 不换行
  20. 你想要的虚幻UE游戏人物模型素材都在这里,细致又齐全

热门文章

  1. write和fwrite
  2. 浙江移动智能语音服务器,电视还能这样玩?中国移动智能语音遥控器,让电视机听你的...
  3. Quartus II LPM使用指南-FIFO篇
  4. 素材网站需要多大的服务器,网站图片一般多大尺寸
  5. 设计模式(2)结构型模式
  6. 爱伦·坡:写作的哲学
  7. python 算法 小试牛刀
  8. 嫦娥奔月(神话,非航天器)
  9. ​微信小程序开发难?资深大V教您微信小程序制作步骤和方法​
  10. Wind量化接口中ErrorCode各类错误码意义