之前花费了比较长的时间在论文阅读上,导致最近的博客都没有产出~~

参考论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

可以理解为对深层神经网络每个隐层神经元的激活值做简化版本的白化操作

为什么要提出Batch Normation

1. 深度网络的训练速度慢,这是由于Internal Covariate Shift所导致的

Internal Convariate Shift:多层网络训练中,后面层次的神经网络接受到的节点受到前面层次的网络参数变化导致该层输入数据的分布发生了变化.泛指,在多层数据网络中各层之间参数变化引起的数据分布发生变化的现象, 发生在深层网络的隐层.

Internal Convariate Shift导致越到网络深处而导致梯度越小,且梯度下降的方向是东拐拐,西拐拐,从而导致到达最优点的时间越长,爬到山顶越慢。

2. 参数不好调, 其中一个参数就是学习率,我们可能要尝试很多次,才能找到合适的学习率,学习率太小,步子太小,训练速度会变慢,学习率过大,又会导致错过最优点。

而Batch Normation的出现就是为了解决1,2问题的,但是问题2出现的本质其实还是由于Internal Convariate Shift所导致的,所以Batch Normation的核心思想其实就是在每一个Layer都进行归一化,将其归一到标准正态分布上。

再说Batch Normation 之前,首先说一下问题1出现的前因后果。

在做非线形操作之前,在每一层的每个结点会计算x=wu+b,其中,u表示输入, 可以表示输入层,也可以表示上一层的输出作为这一层的输入。

假设x符合矩阵为均值为-2,方差为1的正态分布, 而经过BN(x)后会将其分布拉回到均值为0,方差为1的标准正态分布,为什么BN要将其拉回到标准正态分布呢?

下图是标准正态分布:

从上图可以看出,若x符合标准正态分布, 那么x有64%的概率其值落在[-1,1]的范围内,在两个标准差范围内,也就是说95%的概率其值落在了[-2,2]的范围内,x是激活前的值, 假设激活函数为sigmoid(x),sigmoid函数如下图:

x的值有95%的概率落在[-2,2]之间,sigmoid(x)的导数为:G’=f(x)*(1-f(x)),因为f(x)=sigmoid(x)在0到1之间,所以G’在0到0.25之间。但是假设x不符合标准正态分布,符合均值为-6,方差是1的正态分布,那么意味着95%的值落在了[-8,-4]之间,那么对应的Sigmoid(x)函数的值明显接近于0,这是典型的梯度饱和区,在这个区域里梯度变化很慢,为什么是梯度饱和区?

请看下sigmoid(x)如果取值接近0或者接近于1的时候对应导数函数取值,接近于0,意味着梯度变化很小甚至消失。而假设经过BN后,均值是0,方差是1,那么意味着95%的x值落在了[-2,2]区间内,很明显这一段是sigmoid(x)函数接近于线性变换的区域,意味着x的小变化会导致非线性函数值较大的变化,也即是梯度变化较大,对应导数函数图中明显大于0的区域,就是梯度非饱和区。

下图为sigmoid的导数图

BN的作用

经过BN后,目前大部分Activation的值落入非线性函数的线性区内,其对应的导数远离导数饱和区,这样来加速训练收敛过程。

但是

如果都通过BN,那么不就跟把非线性函数替换成线性函数效果相同了?这意味着如果是多层的线性函数变换其实这个深层是没有意义的,因为多层线性网络跟一层线性网络是等价的。这意味着网络的表达能力下降了,这也意味着深度的意义就没有了。所以BN为了保证非线性的获得,对变换后的满足均值为0方差为1的x又进行了scale加上shift操作(y=scale*x+shift),每个神经元增加了两个参数scale和shift参数,这两个参数是通过训练学习到的,意思是通过scale和shift把这个值从标准正态分布左移或者右移一点并长胖一点或者变瘦一点,每个实例挪动的程度不一样,这样等价于非线性函数的值从正中心周围的线性区往非线性区动了动。

核心思想应该是想找到一个线性和非线性的较好平衡点,既能享受非线性的较强表达能力的好处,又避免太靠非线性区两头使得网络收敛速度太慢。

训练阶段的BN

根据上面的解释,我们只需要在每层激活前的值都加入一个BN层就可以了,所以,我们要计算均值,方差这两个统计量,然后在进行normalize就可以了,Batch Normalization统计数据就在batch上。假设mini-batch-size为m, 那么m个样本在经过l隐层的第j个结点时,可以产生m个xi(i = 1, 2···m),利用下面两个公式可计算m个样本的均值和统计量,算法1给出了Batch Normalizion

整个训练过程如下:

在训练阶段,可以训练出,其中是训练参数,在训练完成后测试阶段是已知的,在测试阶段,直接将对应的x和相关的统计量代入即可。

测试阶段的BN

在测试阶段,没有batch的概念,在计算均值和方差时用的是整个测试集的均值和方差,测试集中的样本共享均值和方差。

直接将测试集的x代入

BN的使用

BN在原文章放置在x = wu+b之后,即BN(x=wu),偏置是不需要bn的。另外一种方式放在激活值之后,即BN(g(x)),g为激活函数。有实验表明,第二种方式的效果更好

BN优点

1. 加快训练速度,调参更容易,可以将学习率调大些。

2. 起到了drop out的作用,类似一种正则表达式。

BN存在的问题

从上面的介绍能明显感受到BN存在的问题,

1. BN依赖于Batch的大小,如果Batch偏小,会导致基于batch计算的两个统计量是不准确的,当batch size = 1时BN无法起作用,这也导致batch normalization不能应用online learning tasks(参见layer normalization)。

2. 每次迭代中引进了随机性,使梯度增加了noise,这一点使得BN对于generative model(例如lstm网络)或者reinforcement learning(例如DQN)都是不适用的。

Batch Normation相关推荐

  1. dropout,batch norm 区别 顺序

    20210614 https://www.cnblogs.com/hutao722/p/9946047.html 深度学习基础系列(九)| Dropout VS Batch Normalization ...

  2. batch normalization

    20210702 深度学习中的五种归一化(BN.LN.IN.GN和SN)方法简介 https://blog.csdn.net/u013289254/article/details/99690730 h ...

  3. 【CV】深度学习中Epoch, Batch, Iteration的含义

    Epoch 使用训练集的全部数据样本进行一次训练,称为一次epoch,即所有训练集的样本都在神经网络中进行了一次正向传播和一次反向传播 神经网络中需要有多次epoch,每次epoch中会进行一次更新权 ...

  4. spring Batch实现数据库大数据量读写

    spring Batch实现数据库大数据量读写 博客分类: spring springBatchquartz定时调度批处理  1. data-source-context.xml Xml代码   &l ...

  5. 批标准归一化(Batch Normalization)解析

    1,背景 网络一旦train起来,那么参数就要发生更新,除了输入层的数据外(因为输入层数据,我们已经人为的为每个样本归一化),后面网络每一层的输入数据分布是一直在发生变化的,因为在训练的时候,前面层训 ...

  6. 【深度学习理论】(4) 权重初始化,Batch Normalization

    各位同学好,最近学习了CS231N斯坦福计算机视觉公开课,讲的太精彩了,和大家分享一下. 1. 权重初始化 1.1 相同的初始化权重 神经网络中的所有权重都能通过梯度下降和反向传播来优化和更新.现在问 ...

  7. 深度神经网络中的Batch Normalization介绍及实现

    之前在经典网络DenseNet介绍_fengbingchun的博客-CSDN博客_densenet中介绍DenseNet时,网络中会有BN层,即Batch Normalization,在每个Dense ...

  8. 吴恩达老师深度学习视频课笔记:超参数调试、Batch正则化和程序框架

            Tuning process(调试处理):神经网络的调整会涉及到许多不同超参数的设置.需要调试的重要超参数一般包括:学习率.momentum.mini-batch size.隐藏单元( ...

  9. Spring Batch在大型企业中的最佳实践

    在大型企业中,由于业务复杂.数据量大.数据格式不同.数据交互格式繁杂,并非所有的操作都能通过交互界面进行处理.而有一些操作需要定期读取大批量的数据,然后进行一系列的后续处理.这样的过程就是" ...

最新文章

  1. ipmitool 设置网关_IPMI (Intelligent Platform Management Interface)
  2. 自动化测试特定区域滑动_自动化用户特定实体的访问控制
  3. 【Flink】Flink 实现 AT_LEAST_ONCE EXACTLY_ONCE 案例
  4. leetcode链表中的两数相加问题
  5. 如何用VB.Net创建一个三层的数据库应用程序
  6. maven使用openjdk_openjdk8指定版本安装(maven指定版本安装)
  7. docker stats 监控资源使用情况
  8. zooInspector下载
  9. 获取微信公众号文章封面图的方法
  10. 牵一发动全身【Nhibernate基本映射】
  11. 高德地图实现的数据统计切换街景地图
  12. 手机html5翻页效果代码,jquery html5手机端翻书效果_手指滑动书本翻页效果代码
  13. 百度AI接入api使用流程
  14. Java动态代理技术-我的浅显认识
  15. 蜘蛛爬行html语言的顺序,SEO优化 蜘蛛的爬行规则以及让蜘蛛爬行的快速办法
  16. 2021年G3锅炉水处理及G3锅炉水处理证考试
  17. CC3200学习笔记02-芯片简介
  18. 入手不亏,4款简单易用的典藏软件,真正的电脑利器
  19. 【流媒体|从入门到出家】:流媒体协议—FLV
  20. 去掉迅雷导致桌面的右下角不时弹出广告

热门文章

  1. 从LoRaWAN服务器thethingsnetwork.org获取应用数据
  2. 使用Python打印爱心图案
  3. 薄膜表面瑕疵在线检测系统实时检测出表面瑕疵的具体位置
  4. 此证书已在此前安装为一个证书权威机构
  5. 毕业设计-基于微信小程序的工单智能管理系统
  6. 【优秀课设】基于OpenCV的Python人脸识别、检测、框选(遍历目录下所有照片依次识别 视频随时标注)
  7. 如何提升自己的短视频质量?三个小技巧来帮忙,助你做优质内容
  8. SpringBoot 项目单元测试
  9. 未能加载文件或程序集“XXX.dll”或它的某个依赖项的解决方法
  10. SQL 左连接中on后面加where和加and的区别