点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

在进行各种小实验和思维训练时,你会逐步发现为什么在训练深度神经网络时,合适的权重初始化是如此重要。

那么如何使用不同的方法初始化神经网络中的每层权重呢?

本文作者James Dellinger,总结了Jeremy Howard在fast.ai上最新的《Deep Learning Part II》课程之后,他自己在Jupyter Notebook上重做了一遍,然后为大家提供了以下建议。

为什么要初始化权重

权重初始化的目的是防止在深度神经网络的正向(前向)传播过程中层激活函数的输出损失梯度出现爆炸或消失。如果发生任何一种情况,损失梯度太大或太小,就无法有效地向后传播,并且即便可以向后传播,网络也需要花更长时间来达到收敛。

矩阵乘法是神经网络的基本数学运算。在多层深度神经网络中,一个正向传播仅需要在每层对该层的输入和权重矩阵执行连续的矩阵乘法。这样每层的乘积成为后续层的输入,依此类推。

举个简单的例子,假设我们有一个包含网络输入的向量x。训练神经网络的标准做法,是让输入值落入类似一个均值为0,标准差为1的正态分布中,以确保其被归一化。

让我们假设有一个没有激活函数的简单的100层网络,并且每层都有一个包含这层权重的矩阵a。为了完成单个正向传播,我们必须对每层输入和权重进行矩阵乘法,总共100次连续的矩阵乘法。

事实证明,把层权重值用标准正态分布进行初始化并不是一个好主意。为了弄明白个中原因,我们可以模拟网络的正向传播。

呃!在这100次矩阵乘法某次运算中,层输出变得非常大,甚至计算机都无法识别其标准差和均值。我们实际上可以看到产生这种结果需要多长时间。

在网络的第29个激活层输出发生梯度爆炸,很明显网络的权重初始化值过大。

不仅如此,我们同时还要防止层输出发生梯度消失。为了看看当网络权重初始值太小时会发生什么 - 我们将缩小例子的权重值,使它们仍然落入平均值为0的正态分布内,而标准差为0.01。

在上述假设的正向传播过程中,激活层输出出现了完全消失的现象。

总结一下,权重初始值太大或者太小,网络都将无法很好地进行学习。

怎样才能找到最佳值?

如上所述,神经网络正向传播在数学上只需做连续的矩阵乘法。如果输出y是输入向量x和权重矩阵a之间的矩阵乘法之积,则y中的第i个元素被定义为:

其中i是权重矩阵a给定行的索引,ķ既是给定列的索引及输入向量X的元素索引,n是X中元素的个数。这个公式可以在Python中表示为:

y[i] = sum([c*d for c,d in zip(a[i], x)])

可以证明,在某给定层,根据标准正态分布初始化的输入x和权重矩阵a的乘积,通常具有非常接近输入连接数平方根的标准差,在我们的例子中是√512。

如果我们从矩阵乘法定义来看这个值就再正常不过了:为了计算y,我们将输入向量x的某个元素乘以权重矩阵a的一列所得的512个乘积相加。在我们的例子中使用了标准正态分布来初始化x和a,所以这512个乘积的均值都为0,标准差都为1。

然后,这512个乘积的总和的均值为0,方差为512,因此标准差为√512。

这就是为什么在上面的例子中层输出在29次连续的矩阵乘法后会发生梯度爆炸。这个简单的100层网络架构中,我们想要的是每层输出具有大约1的标准差,这样就可以使我们在尽可能多的网络层上重复矩阵乘法,而不会发生梯度爆炸或消失。

如果我们首先通过将权重矩阵a的各随机选择值除以√512来对其进行缩小,那么生成输出y的某个元素的输入元素与权重乘积的方差通常只有1 /√512。

这意味着矩阵y的标准差(由输入x和权重a通过矩阵乘法生成的512个值组成)将是1。我们可以通过实验来验证。

现在让我们重新运行之前的100层神经网络。与之前一样,我们首先从[-1,1]内的标准正态分布中随机选择层权重值,但这次我们用1/√n来缩小权重,其中n是每层的网络输入连接数,在我们的例子是512。

搞定!即使连续传播了100层之后,层输出也没有发生梯度爆炸或者消失。

虽然乍一看似乎真的搞定了,但现实世界的神经网络并不像我们这个例子那么简单。因为为简单起见,我们省略了激活函数。但是,在实际中我们永远不会这样做。正是因为有了这些置于网络层末端的非线性激活函数,深度神经网络才能非常近似地模拟真实世界那些错综复杂的现象,并且生成那些令人惊讶的预测,例如手写样本的分类。

Xavier初始化

直到几年前,最常用的激活函数还是基于给定点对称的,并且函数曲线在该点加/减一定数值的范围内。双曲正切线和softsign函数就是这类激活函数。

Tanh和softsign激活函数。图片来源:Sefik Ilkin Serengil的博客。

我们在假设的100层网络每一层之后添加双曲正切激活函数,然后看看当使用我们自己的权重初始化方案时会发生什么,这里层权重按1 /√n缩小。

第100层的激活输出的标准偏差低至约0.06。这绝对是偏小的一面,但至少激活并没有完全消失!

现在回想起来,发现我们自己的权重初始化策略还是很直观的。但你可能会惊讶地发现,就在2010年,这还不是初始化权重层的传统方法。当Xavier Glorot和Yoshua Bengio发表了他们的标志性文章Understanding the difficulty of training deep feedforward neural networks,他们对比实验中的“常用启发式”是根据[-1,1]中的均匀分布来初始化权重,然后按1 /√n的比例缩放。

Understanding the difficulty of training deep feedforward neural networks

http://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf

事实证明,这种“标准”方法实际上并不能很好地发挥作用。

使用“标准”权重初始化方法重新运行我们的100层tanh网络会导致激活梯度变得无限小 - 就像消失一样了一样。

这种糟糕的结果实际上促使Glorot和Bengio提出他们自己的权重初始化策略,他们在他们的论文中称之为“正则化初始化”,现在通常被称为“Xavier初始化”。

Xavier初始化将每层权重设置为在有界的随机均匀分布中选择的值(如下表达式所示)

其中nᵢ是该层的传入网络连接数或该层的“fan-in”,nᵢ₊1是该层的传出网络连接数,也称为fan-out。

Glorot和Bengio认为Xavier权重初始化将保持激活函数和反向传播梯度的方差,一直向上或向下传播到神经网络的每一层。在他们的实验中,他们观察到Xavier初始化使一个5层网络能够将每层的权重梯度维持在基本一致的方差上。

相反,若不使用Xavier初始化,直接使用“标准”初始化会导致网络较低层(较高)的权值梯度与最上层(接近于零)的权值梯度之间的差异更大。

为了说明这一点,Glorot和Bengio证明了使用Xavier初始化的网络在CIFAR-10图像分类任务上实现了更快的收敛速度和更高的精度。让我们再次重新运行我们的100层tanh网络,这次使用Xavier初始化:

在我们的实验网络中,Xavier初始化方法与我们之前自定义方法非常相似,之前的方法是从随机正态分布中采样值,并通过传入网络连接数n的平方根进行缩放。

Kaiming初始化

从概念上讲,当使用关于零对称且在[-1,1]内有输出的激活函数(例如softsign和tanh)时,我们希望每层的激活输出的平均值为0,平均标准偏差大约为1,这是有道理的。这正是我们的自定义方法和Xavier都能实现的。

但是,如果我们使用ReLU激活函数呢?以同样的方式缩放随机初始权重值是否仍然有意义?

为了看看会发生什么,让我们在先前假设的网络层中使用ReLU激活来代替tanh,并观察其输出的预期标准偏差。

事实证明,当使用ReLU激活时,单个层的平均标准偏差将非常接近输入连接数的平方根除以2的平方根,在我们的例子中也就是√512/√2。

通过该值缩放权重矩阵a将使每个单独的ReLU层平均具有1的标准偏差。

正如我们之前所展示的那样,保持层激活的标准偏差大约为1将允许我们在深度神经网络中堆叠更多层而不会出现梯度爆炸或消失。

关于探索如何在类ReLU的激活的网络中最佳地初始化权重促使何凯明等优秀学者提出自己的初始化方案,这些方案是专门用来处理这些非对称,非线性激活的深层神经网络的。

在他们的2015年论文中何凯明等人证明了如果采用以下输入权重初始化策略,深层网络(例如22层CNN)会更早收敛:

1. 使用适合给定图层的权重矩阵创建张量,并使用从标准正态分布中随机选择的数字填充它。

2. 将每个随机选择的数字乘以√2/√n,其中n是从前一层输出到指定层的连接数(也称为“fan-in”)。

3. 偏差张量初始化为零。

我们可以按照这些指示来实现我们自己的Kaiming初始化版本,并验证如果在我们假设的100层网络的所有层使用ReLU,它确实可以防止激活输出爆炸或消失。

作为最后的比较,如果我们使用Xavier初始化,那么将会发生以下情况。

看!当使用Xavier初始化权重时,第100层的激活输出几乎完全消失了!

顺便提一下,当他们使用ReLU训练更深层的网络时。何凯明等人发现使用Xavier初始化的30层CNN完全停止并且不再学习。然而,当根据上面概述的三步初始化相同的网络时,它的收敛效果非常好。

对我们来说,故事的寓意是,我们从头开始训练的任何网络,特别是计算机视觉应用,几乎肯定会包含ReLU激活函数,并且是深度的。在这种情况下,Kaiming初始化应该是我们的首选权重初始化策略。

是的,你也可以成为一名研究员

更重要的是,当我第一次看到Xavier和Kaiming公式时,我并不羞于承认我感到畏惧。对于他们各自选用的六,二的平方根,我不禁感到这些一定是他们超凡的智慧结晶,但是我却无法理解的。但我们仍然要勇敢地面对它,有时深度学习论文中的数学很像象形文字,除了没有Rosetta Stone帮助翻译。

但我认为,我们在这里的经历向我们表明,这种感到恐惧的下意识反应虽然完全可以理解,但绝不是不可避免的。。虽然何凯明和(特别是)Xavier的论文确实包含了相当多的数学内容,但我们亲眼目睹了实验,经验观察。一些直观的常识足以帮助我们推导出当前最广泛使用的权重初始化方案的核心概念或者说:当有疑问时,要勇敢,尝试一下,看看会发生什么!

相关报道:

https://towardsdatascience.com/weight-initialization-in-neural-networks-a-journey-from-the-basics-to-kaiming-954fb9b47c79

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

神经网络中的权重初始化一览:从基础到Kaiming相关推荐

  1. 神经网络中的权重初始化问题weight initialization problem in FNN

    个人论文完成笔记 ^ _ ^欢迎批评指正 本篇文章研究的是全连接的多层神经网络中的权重初始化问题,以8-20-30-1的MLP为实验对象.神经网络是一种要素间关联性极强的结构,从输入数据,输入数据的s ...

  2. 深度学习 | Why and How:神经网络中的权重初始化

    北京 | 深度学习与人工智能研修 12月23-24日 再设经典课程 重温深度学习阅读全文> 正文共2268个字,8张图,预计阅读时间:6分钟. 前言 神经网络中的权重(weight)初始化是个常 ...

  3. 神经网络中的权重初始化常用方法

    1.权重初始化的重要性 神经网络的训练过程中的参数学习时基于梯度下降算法进行优化的.梯度下降法需要在开始训练时给每个参数赋予一个初始值.这个初始值的选取十分重要.在神经网络的训练中如果将权重全部初始化 ...

  4. 《南溪的目标检测学习笔记》——权重初始化

    1 介绍 在使用CNN搭建目标检测模型时,有一个很重要的步骤就是需要进行权重初始化,那么为什么需要进行权重初始化呢? 2 权重初始化的原因 关于为什么要进行权重初始化,请阅读知乎文章<神经网络中 ...

  5. [DeeplearningAI笔记]改善深层神经网络_深度学习的实用层面1.10_1.12/梯度消失/梯度爆炸/权重初始化...

    觉得有用的话,欢迎一起讨论相互学习~Follow Me 1.10 梯度消失和梯度爆炸 当训练神经网络,尤其是深度神经网络时,经常会出现的问题是梯度消失或者梯度爆炸,也就是说当你训练深度网络时,导数或坡 ...

  6. 简单探究神经网络中权重、偏置维度的关系

    利用PyTorch的tensor和autograd实现一个简单的神经网络,探究神经网络中权重.偏置维度的关系 简单神经网络的分析和实现 本次目标 项目环境 神经网络手绘图 代码实现 简单神经网络的分析 ...

  7. 深度神经网络中处理数据和训练模型的一些技巧

    深度神经网络中处理数据和训练模型的一些技巧 1 数据预处理 1.1 中心化 1.2 标准化 1.3 PCA 1.4 白噪声 1.5 小结 2 权重初始化 2.1 全0初始化 2.2 随机初始化 2.3 ...

  8. 优达学城《DeepLearning》2-3:权重初始化

    目录 初始重量并观察训练损失 数据集和模型 导入库并加载数据 可视化一些训练数据 定义模型结构 初始化权重 全部为0或1 比较模型行为 均匀分布 统一初始化,基线 设置权重的一般规则 正态分布(Nor ...

  9. 神经网络中的Epoch、Iteration、Batchsize

    总结:epoch=iteration∗batch_sizeepoch = iteration * batch\_sizeepoch=iteration∗batch_size 1.batch_size ...

最新文章

  1. 2021年大数据ELK(二十三):Kibana简介
  2. 基于 Asp.Net的 Comet 技术解析
  3. 根据长文本拆分至内表
  4. 福利再度来袭,R语言数据分析书籍值得你拥有
  5. vscode添加源文件_VSCode自制的IDE编译多个源文件
  6. C#快速导入海量XML数据至SQL Server数据库
  7. GO语言学习之路22
  8. tensorflow之交叉熵
  9. IE浏览器提示对象不支持“append”属性或方法
  10. 001----Mysql隔离级别
  11. ubuntu20.04下开发海康威视网络摄像头sdk(二)云台基本控制(位姿控制)
  12. 五大常用算法实例列举
  13. 易语言自定义数据类型转c,转换JSON结构为易语言代码自定义数据类型
  14. 用易语言开发的ffmpeg转码工具
  15. AHP权重计算方法案例
  16. matlab——for循环
  17. html编辑器设置为publisher,Microsoft Publisher操作简介
  18. 前端自适应图片留白解决
  19. 手动配置协议和服务器POP,企业邮箱如何设置POP/SMTP等服务-上海腾曦网络[foxmail]...
  20. 如何用Xshell快速连接远程电脑

热门文章

  1. 2020年,最适合AI的5种编程语言
  2. 强化学习70年演进:从精确动态规划到基于模型
  3. 深度学习目标检测法进化史,看这一篇就够了
  4. 拯救老电影——详解爱奇艺ZoomAI视频增强技术的应用
  5. 超过C++、压制Java与C,Python拔得TIOBE年度编程语言!
  6. 0.2秒居然复制了100G文件?
  7. 详细介绍!Linux 上几种常用的文件传输方式
  8. 机器学习模型调优总结!
  9. 人工智能在电力系统的应用(PPT)
  10. 强烈推荐!最好用的《机器学习实用指南》第二版终于来了,代码已开源!