原文链接

思考

YJango的前馈神经网络--代码LV3的数据预处理中提到过:在数据预处理阶段,数据会被标准化(减掉平均值、除以标准差),以降低不同样本间的差异性,使建模变得相对简单。

我们又知道神经网络中的每一层都是一次变换,而上一层的输出又会作为下一层的输入继续变换。如下图中, 经过第一层 的变换后,所得到的 ; 而 经过第二层 的变换后,得到

在第二层所扮演的角色就是 在第一层所扮演的角色。 我们将 进行了标准化,那么,为什么不对 也进行标准化呢?

Batch Normalization论文便首次提出了这样的做法。

Batch Normalization(BN)就是将每个隐藏层的输出结果(如 )在batch上也进行标准化后再送入下一层(就像我们在数据预处理中将 进行标准化后送入神经网络的第一层一样)。

优点

那么Batch Normalization(BN)有什么优点?BN的优点是多个并存,但这里只提一个最容易理解的优点。

训练时的问题

尽管在讲解神经网络概念的时候,神经网络的输入指的是一个向量

但在实际训练中有:

  • 随机梯度下降法(Stochastic Gradient Descent):用一个样本的梯度来更新权重。
  • 批量梯度下降法(Batch Gradient Descent):用多个样本梯度的平均值来更新权重。

如下图所示,绿、蓝、黑的箭头表示三个样本的梯度更新网络权重后loss的下降方向。

若用多个梯度的均值来更新权重的批量梯度下降法可以用相对少的训练次数遍历完整个训练集,其次可以使更新的方向更加贴合整个训练集,避免单个噪音样本使网络更新到错误方向。

然而也正是因为平均了多个样本的梯度,许多样本对神经网络的贡献就被其他样本平均掉了,相当于在每个epoch中,训练集的样本数被缩小了。batch中每个样本的差异性越大,这种弊端就越严重。

一般的解决方法就是在每次训练完一个epoch后,将训练集中样本的顺序打乱再训练另一个epoch,不断反复。这样重新组成的batch中的样本梯度的平均值就会与上一个epoch的不同。而这显然增加了训练的时间。

同时因为没办法保证每次更新的方向都贴合整个训练集的大方向,只能使用较小的学习速率。这意味着训练过程中,一部分steps对网络最终的更新起到了促进,一部分steps对网络最终的更新造成了干扰,这样“磕磕碰碰”无数个epoch后才能达到较为满意的结果。

:一个epoch是指训练集中的所有样本都被训练完。一个step或iteration是指神经网络的权重更新一次。

为了解决这种“不效率”的训练,BN首先是把所有的samples的统计分布标准化,降低了batch内不同样本的差异性,然后又允许batch内的各个samples有各自的统计分布。所以,

BN的优点自然也就是允许网络使用较大的学习速率进行训练,加快网络的训练速度(减少epoch次数),提升效果。

做法

设,每个batch输入是 (其中每个 都是一个样本, 是batch size) 假如在第一层后加入Batch normalization layer后, 的计算就倍替换为下图所示的那样。

  • 矩阵 先经过 的线性变换后得到

    • :因为减去batch的平均值 后, 的作用会被抵消掉,所以没必要加入 (红色删除线)。
  • 再减去batch的平均值 ,并除以batch的标准差 得到 是为了避免除数为0的情况所使用的微小正数。
    • :但 基本会被限制在正态分布下,使得网络的表达能力下降。为解决该问题,引入两个新的parameters: 是在训练时网络自己学习得到的。
  • 乘以 调整数值大小,再加上 增加偏移后得到
  • 为加入非线性能力, 也会跟随着ReLU等激活函数。
  • 最终得到的 会被送到下一层作为输入。

需要注意的是,上述的计算方法用于在训练。因为测试时常会只预测一个新样本,也就是说batch size为1。若还用相同的方法计算 就会是这个新样本自身, 就会成为0。

所以在测试时,所使用的 是整个训练集的均值 和方差

而整个训练集的均值和方差 的值通常也是在训练的同时用移动平均法来计算,会在下一篇代码演示中介绍。

『教程』Batch Normalization 层介绍相关推荐

  1. 『Batch Normalization』Batch Normalization一文吃透

    Batch Normalization 协变量偏移 神经网络前向传播 引起的问题 Batch Normalization的登场 为什么存在 β \beta β和 γ \gamma γ? 预测时如何使用 ...

  2. 透彻理解BN(Batch Normalization)层

    什么是BN Batch Normalization是2015年论文<Batch Normalization: Accelerating Deep Network Training by Redu ...

  3. 【华为云技术分享】Batch Normalization (BN) 介绍

    Batch Normalization(BN)解决的是Internal Covariate Shift (ICS)的问题. Internal Covariate Shift在文中定义为 The cha ...

  4. 当卷积层后跟batch normalization层时为什么不要偏置b

    起因 之前使用的是inception-v2模型,在v2中,标准的卷积模块为: * conv_w_b->bn->relu ->pooling* 即,在v2中,尽管在卷积之后.激活函数之 ...

  5. 『教程』L0、L1与L2范数

    http://blog.csdn.net/zouxy09 """ 拟合过程中通常都倾向于让权值尽可能小,最后构造一个所有参数都比较小的模型.因为一般认为参数值小的模型比较 ...

  6. android .beats音效安装器,『教程』为你的安卓设备安装Beats audio音效及驱动

    该楼层疑似违规已被系统折叠 隐藏此楼查看此楼 大部分的屄厕音效安装过程必须用到超级终端,灰常麻烦,但是以下方法,是完全的卡刷一键式(奉劝小白不要尝试,小白以上级别请做好系统备份,因为一旦安装,不可卸载 ...

  7. 『教程』笔记本win7下自建Wifi热点–便于手机Wifi上网 (转 )

    说是教程,我也是从安致论坛上学来的,觉得还不错,于是再分享一次吧. 首先,以管理员身份运行命令提示符(用快捷键WIN+R调出运行然后输入CMD打开命令提示符的非是管理员权限),右击"命令提示 ...

  8. 『TensorFlow』批处理类

    『教程』Batch Normalization 层介绍 基础知识 下面有莫凡的对于批处理的解释: fc_mean,fc_var = tf.nn.moments(Wx_plus_b,axes=[0],# ...

  9. 基于MNIST数据集的Batch Normalization(批标准化层)

    从前面的文章中,我们了解到,各层的激活值分布如果比较偏向的话,都会影响到神经网络的正常顺利学习,如果各层的激活值能够适当的进行广度分布,或说强制性地调整激活值的分布,这样的效果会怎么样呢?答案是肯定的 ...

最新文章

  1. psw和fr微型计算机,微型计算机技术及应用习题答案
  2. imx6 i2c分析
  3. 紫色大气Bootstrap网站模板
  4. windows连接linux服务器并后台运行python脚本
  5. window下zookeeper的下载启动和报错等问题
  6. 打开游戏要运行19.8亿次 if 语句?黑客嘲讽RockStar游戏代码太烂了
  7. MapControl与PageLayoutControl联动
  8. amd速龙黑苹果内核补丁_替换AMD内核安装10.9.2超级懒人版成功
  9. Win10环境下VS2003安装教程
  10. python蒙特卡洛求定积分_蒙特卡洛定积分(一)
  11. 排查oracle数据库服务是否启动
  12. vc9.vc11.vc14_vc解释了为什么vc现在如此生气
  13. 刘禹锡最经典诗文10首,每一首都是千古名作,读懂受益一生
  14. 互联网行业中最常用的数据库——MySQL 索引、事务与存储引擎
  15. mysql异地多活方案_数据库异地多活解决方案
  16. 今年iPhone七成产自郑州
  17. 广东小学几年级有计算机课,广州小学开设网络班:小学生人手一台手提电脑
  18. 三国群英传霸业之王服务器维护,20190723维护公告
  19. 浅谈HyperLogLog底层算法逻辑
  20. 正版推荐 -Macs Fan Control 控制苹果电脑上风扇工具软件

热门文章

  1. 《妥协的完美主义—优秀产品经理的实践指南(卷一)》一2.4 分工常见的错误...
  2. 工作是老板的,生命是自己的。
  3. c语言 数组递减输出,合并两个线性表(数组)并按照非递减排序输出,有点问题过来看看...
  4. 计算机图形与游戏技术,宾夕法尼亚大学计算机图形与游戏技术研究生Offer及录取要求...
  5. 下载Nacos源码并运行
  6. Netty与Spring WebSocket
  7. 织入业务代码-LogAspect
  8. Spring AOP 源码分析-寻找入口
  9. 选择Bean 实例化策略
  10. 字节流写数据加异常处理