神经网络为什么要归一化

1.数值问题。

无容置疑,归一化的确可以避免一些不必要的数值问题。输入变量的数量级未致于会引起数值问题吧,但其实要引起也并不是那么困难。因为tansig的非线性区间大约在[-1.7,1.7]。意味着要使神经元有效,tansig( w1*x1 + w2*x2 +b) 里的 w1*x1 +w2*x2 +b 数量级应该在 1 (1.7所在的数量级)左右。这时输入较大,就意味着权值必须较小,一个较大,一个较小,两者相乘,就引起数值问题了。

假如你的输入是421,你也许认为,这并不是一个太大的数,但因为有效权值大概会在1/421左右,例如0.00243,那么,在matlab里输入  421*0.00243 == 0.421*2.43

可以看到两者不相等了,说明已经引起数值问题了。

2.求解需要

我们建立了神经网络模型后,只要找到的解足够好,我们的网络就能够正确的预测了。在训练前我们将数据归一化,说明数据归是为了更方便的求解。

那么,究竟给求解带来了什么方便呢?

这个问题不能一概而论,不同的算法,在归一化中得到的好处各不相同。假若有一个很牛B的求解算法,那完全用不着归一化,不过目前大部算法,都比较需要归一化,特别是常用的梯度下降法(或梯度下降的衍生方法),归一化和不归一化,对梯度下降法的影响非常大。不同的算法,对归一化的依赖程序不同,例如列文伯格-马跨特算法(matlab工具箱的trainlm法)对归一化的依赖就没有梯度下降法(matlab里的traingd)那么强烈。

既然不同的算法对归一化有不同的理由,篇幅有限,本文就仅以梯度下降法举例。

重温一下梯度法,梯度法一般初始化一个初始解,然后求梯度,再用新解=旧解-梯度*学习率 的方式来迭代更新解。直到满足终止迭代条件,退出循环。

先看归一化对初始化的好处:

(1)初始化

过初始化的同学会发现,输入数据的范围会影响我们初始化的效果。例如,某个神经元的值为tansig(w1*x1+w2*x2+b),由于tansig函数只有在[-1.7,1.7]的范围才有较好的非线性,所以w1*x1+w2*x2+b的取值范围就要与 [-1.7,1.7]有交集(实际上需要更细腻的条件),这个神经元才能利用到非线性部分。

我们希望初始化的时候,就把每个神经元初始化成有效的状态,所以,需要知道w1*x1+w2*x2+b的取值范围,也就需要知道输入输出数据的范围。

输入数据的范围对初始化的影响是无法避免的,一般讨论初始化方法时,我们都假设它的范围就是[0,1]或者[-1,1],这样讨论起来会方便很多。就这样,若果数据已经归一化的话,能给初始化模块带来更简便,清晰的处理思路。

注:matlab工具箱在初始化权值阈值的时候,会考虑数据的范围,所以,即使你的数据没归一化,也不会影响matlab工具箱的初始化

(2)梯度

以输入-隐层-输出这样的三层BP为例,我们知道对于输入-隐层权值的梯度有2e*w*(1-a^2)*x的形式(e是誤差,w是隐层到输出层的权重,a是隐层神经元的值,x是输入),若果输出层的数量级很大,会引起e的数量级很大,同理,w为了将隐层(数量级为1)映身到输出层,w也会很大,再加上x也很大的话,从梯度公式可以看出,三者相乘,梯度就非常大了。这时会给梯度的更新带来数值问题。

(3)学习率

由(2)中,知道梯度非常大,学习率就必须非常小,因此,学习率(学习率初始值)的选择需要参考输入的范围,不如直接将数据归一化,这样学习率就不必再根据数据范围作调整。

隐层到输出层的权值梯度可以写成 2e*a,而输入层到隐层的权值梯度为 2e *w*(1-a^2)*x ,受 x 和 w 的影响,各个梯度的数量级不相同,因此,它们需要的学习率数量级也就不相同。对w1适合的学习率,可能相对于w2来说会太小,若果使用适合w1的学习率,会导致在w2方向上步进非常慢,会消耗非常多的时间,而使用适合w2的学习率,对w1来说又太大,搜索不到适合w1的解。

如果使用固定学习率,而数据没归一化,则后果可想而知。

不过,若果像matlab工具箱一样,使用自适应学习率,学习率的问题会稍稍得到一些缓和。

(4)搜索轨迹

前面已说过,输入范围不同,对应的 w 的有效范围就不同。假设 w1 的范围在 [-10,10],而w2的范围在[-100,100],梯度每次都前进1单位,那么在w1方向上每次相当于前进了 1/20,而在w2上只相当于 1/200!某种意义上来说,在w2上前进的步长更小一些,而w1在搜索过程中会比w2“走”得更快。这样会导致,在搜索过程中更偏向于w1的方向。

抛开哪种路线更有效于找到最佳解的问题不谈,两点之间直线距离最短,这种直角路线明显会更耗时间,所以不归一化,时间会明显增加。

从上面的分析总结,除去数值问题的影响,最主要的影响就是,每一维的偏导数计算出来数量级会不一致。下面我们来个试验。

3.小实验

假设我们有两个输入变量,x1范围是[-1,1],但x2是[-100,100],输出范围是[-1,1]。x2在输入数据上没有做归一化,怎么修改训练过程,才能让训练结果如同数据归一化了一样呢。

通过上面的讨论,我们知道x2增大了,会使w2的梯度也很大,因此我们在计算w2梯度时,需要把它的梯度除以100.才能得到它的梯度数量级与w1的一致。然后在更新w步长的时候,w1的有效取值范围(1/1)是w2的有效取值范围(1/100)的100倍,因此w2走的时候,应该以1/100的步去走。所以w2的学习率也需要除以100。

这样,若果不考虑数值问题,会和数据作了归一化的结果是一样的。这里就不展示实验的代码了,因为需要涉及整个BP代码。有兴趣研究的同学在自己的编写的代码上动下刀。

这是一个案例分析,说明不考虑数值问题的话,只是影响了这两个地方。假设,x2的输入范围是[100,300],那肯定不是除以100就可以了,需要更复杂一些的变换,这里不再深入纠结。

为什么要归一化,对于使用梯度下降法训练的三层BP神经网络总结出的就是这些原因了。对于其他的神经网络模型,会有其它的原因,这里就不再作分析。

4.对使用matlab工具箱的建议

关于使用matlab工具箱需要注意的两点

  1. Matlab2012b已经会自动将输入数据归一化,所以不必再自己去做数据的预处理,直接用原始数据建立网络就可以。
  2. 但输出需要做归一化,因为工具箱计算误差的时候,使用的是原始数据的误差,因此误差数量级可能很大,这样一来梯度就很大了,在学习率还没来得及自适应减小的时候,梯度就一下子把原来初始化好的权重给吞掉了,使网络的权重掉到一个离最优解非常远的地方。所以使用matlab神经网络工具箱,而又要用梯度下降法的话,输出一定要做归一化。

但若果用默认的trainlm法,而不是梯度下降法 traingd的话,那影响不会像 traingd这么严重,我们可以看到 trainlm(列文伯格-马跨特法) 对方向 h 的计算公式是:

由于JJ和Jf的数量级不会差太多,而且由于有u的调整,最终会得到一个适当的h。

3.使用matlab2012b(或以上)工具箱得到的网络权值,是面向作了归一化后的数据的。所以使用时,需要先对数据进行归一化,再将归一化后的输入数据放到网络中计算网络输出,再将输出反归一化,才是真正的预测结果。如果想把归一化过程揉合到网络的权值的话,请参考文章:<提取对应原始数据的权重和阈值>

5.个人见解

下面是网友关于为什么要归一化的一些回答(欢迎补充):

1.避免数值问题。

2.使网络快速的收敛。

3.样本数据的评价标准不一样,需要对其量纲化,统一评价标准

4.bp中常采用sigmoid函数作为转移函数,归一化能够防止净输入绝对值过大引起的神经元输出饱和现象 。

5.保证输出数据中数值小的不被吞食 。

事实上本文的研究大部分都是借鉴了网友的见解,基于这些观点进一步探讨所得,但对部分观点,本人略有不同看法:

(1)使网络快速的收敛:赞同。

(2)避免数值问题:赞同。

(3)统一量纲:本人认为这从属于业务层,与网络的训练无关。

(4)避免神经元饱和:与权值阈值相乘后,才是sigmoid的输入值,初始化得好的话,并不会饱和输出。若果使用“把权值和阈值随机初始化为[-1,1]之间的值”这种初始化方法,那不归一化就会引起神经元输出饱和现象。

(5)大数吞小数:若果我们找到适合的权值,是不会吞掉的,例如x1=10000,x2=1, 而w1=0.0001,w2=1,那么w1*x1是不会吞掉w2*x1的。

后语

本文在很多细节之处,都没有作深入的讨论,一来展开这些讨论会让文章非常冗赘,失去主题。二来(也是最主要的原因),对归一化作用的研究,只能让我们更清晰归一化的好处,减少我们对归一化的疑惑,并不能促进我们更好的改进网络效果。所以本文,都仅从大方面,不十分严谨的提及归一化在训练过程各方面的好处。

感谢大家的阅读。

==============<原创文章,转载请说明来自神经网络之家www.nnetinfo.com >     ================

==========<请保留本文的地址:http://www.nnetinfo.com/nninfo/showText.jsp?id=37>=============

转载于:https://www.cnblogs.com/bonelee/p/7880944.html

神经网络为什么要归一化相关推荐

  1. 神经网络为什么要归一化?

    关于神经网络归一化问题,在神经网络为什么要归一化和深度学习(二十九)Batch Normalization 学习笔记这两篇文章已经介绍的非常清楚了. 在这里,我简单说下自己的直观理解:由于数据的分布不 ...

  2. 深度学习入门(三十二)卷积神经网络——BN批量归一化

    深度学习入门(三十二)卷积神经网络--BN批量归一化 前言 批量归一化batch normalization 课件 批量归一化 批量归一化层 批量归一化在做什么? 总结 教材 1 训练深层网络 2 批 ...

  3. 深度神经网络中的归一化技术

    https://www.toutiao.com/a6656378520316412427/ 为什么我们需要归一化? 归一化一直是深度学习研究的一个活跃领域.归一化技术可以大大减少机器学习模型的训练时间 ...

  4. 均值归一化_深度神经网络中的归一化技术

    为什么我们需要归一化? 归一化一直是深度学习研究的一个活跃领域.归一化技术可以大大减少机器学习模型的训练时间.让我们看看归一化的一些好处. 它对每个特征进行归一化,以便它们保持每个特征的贡献,因为某些 ...

  5. 深层神经网络和批归一化操作、selu激活函数、dropout

    深层神经网络其实对比之前的分类模型,他的网络层数更深,层数更多,但是,有时候也会造成过拟合的风险因为参数过多,导致全部拟合完容易记住样本. model = keras.models.Sequentia ...

  6. 基于Pytorch再次解读NiN现代卷积神经网络和批量归一化

    个人简介:CSDN百万访问量博主,普普通通男大学生,深度学习算法.医学图像处理专攻,偶尔也搞全栈开发,没事就写文章,you feel me? 博客地址:lixiang.blog.csdn.net 基于 ...

  7. 神经网络中的批量归一化Batch Normalization(BN)原理总结

    0.概述 深层神经网络存在的问题(从当前层的输入的分布来分析):在深层神经网络中,中间层的输入是上一层神经网络的输出.因此,之前的层的神经网络参数的变化会导致当前层输入的分布发生较大的差异.在使用随机 ...

  8. 神经网络归一化过程(详细实例、公式、代码)

    原创文章,转载请说明来自:<老饼讲解-BP神经网络> 目录 一. 归一化与反归一化 二. 例子实讲 三. 完整代码例子 四.网络表达式的反归一化 为了方便网络训练得更优秀,一般会先将输入输 ...

  9. matlab反归一化函数,MATLAB中BP神经网络的归一化与反归一化处理方法

    本帖最后由 CAPTIONVIP 于 2014-12-9 21:03 编辑 本人之前对MATLAB不是很熟悉,只是这次在做写一篇关于神经网络的文章时需要用到MATLAB,下面是我写的一个简单的程序,麻 ...

最新文章

  1. Placement new的用法及用途
  2. php mysql db封装类_封装自己的DB类(PHP)
  3. 批处理之显示隐藏文件
  4. jQuery 遍历 - slice() 方法
  5. Node.js 环境下的 console.log 是同步执行的
  6. LinkedList和ArrayList异同
  7. python数组_Python数组
  8. java 下载 名乱码_java下载文件中文文件名乱码
  9. g++ warn_unused_result
  10. 简单版数独计算器-升级版
  11. Window11一键安装APK应用详细教程,及错误解决
  12. 量子力学第十一弹——变分法
  13. 一道好玩的逻辑题之蓝眼睛红眼睛
  14. 【央联众商】进行家庭投资理财选择的必要性
  15. 手机视频剪辑软件哪个会比较好用?
  16. SpringBoot集成腾讯云短信实现注册/登录功能
  17. uefi启动 多硬盘gtp_关于UEFI启动+GPT分区的一些经验
  18. 蓝桥杯 基础练习VIP FJ的字符串 java
  19. 为什么狗狗听到铃声会叫
  20. 第三期私域运营白皮书(下)

热门文章

  1. C++实现Linux下弹出U盘的方法
  2. python转义字符r 列表_通过在列表前面添加反斜杠来转义列表中的保留字符 - python...
  3. 服务器共享文件夹 关闭打开文件,dos命令net file图文教程,显示打开共享文件名关闭删除文件锁...
  4. 什么可以代替压感笔_什么是优生五项?一般体检可以代替优生五项检查?医生:不可以!...
  5. thinkphp5调用shell脚本_thinkphp5.x全版本任意代码执行getshell
  6. 下拉选项框选中之后,通过ajax请求服务器,填充页面其他元素的value值
  7. Java程序员的春天!java引用数据类型和基本数据类型区别
  8. 【面试必备】java实现下载文件
  9. python【数据结构与算法】最小生成树之Kruskal算法
  10. 【深度学习笔记】Windows 下 pip 安装paddle.fluid