←上一篇 ↓↑ 下一篇→
3.5 向量化实现的解释 回到目录 3.7 为什么需要非线性激活函数

激活函数 (Activation Function)

使用一个神经网络时,需要决定使用哪种激活函数用隐藏层上,哪种用在输出节点上。到目前为止,之前的视频只用过sigmoid激活函数,但是,有时其他的激活函数效果会更好。

在神经网路的前向传播中,的 a[1]=σ(z[1])a^{[1]}=\sigma(z^{[1]})a[1]=σ(z[1]) 和 a[2]=σ(z[2])a^{[2]}=\sigma(z^{[2]})a[2]=σ(z[2]) 这两步会使用到sigmoid函数。sigmoid函数在这里被称为激活函数。 公式3.18:

a=σ(z)=11+e−za=\sigma(z)=\frac1{1+e^{-z}}a=σ(z)=1+e−z1​

更通常的情况下,使用不同的函数 g(z[1])g(z^{[1]})g(z[1]) , ggg 可以是除了sigmoid函数以外的非线性函数。tanh函数或者双曲正切函数是总体上都优于sigmoid函数的激活函数。

如图, a=tanh(z)a=tanh(z)a=tanh(z) 的值域是位于+1和-1之间。 公式3.19: a=tanh(z)=ez−e−zez+e−za=tanh(z)=\frac{e^z-e^{-z}}{e^z+e^{-z}}a=tanh(z)=ez+e−zez−e−z​

事实上,tanh函数是sigmoid的向下平移和伸缩后的结果。对它进行了变形后,穿过了 (0,0)(0,0)(0,0) 点,并且值域介于+1和-1之间。

结果表明,如果在隐藏层上使用函数 公式3.20: g(z[1])=tanh(z[1])g(z^{[1]})=tanh(z^{[1]})g(z[1])=tanh(z[1]) 效果总是优于sigmoid函数。因为函数值域在-1和+1的激活函数,其均值是更接近零均值的。在训练一个算法模型时,如果使用tanh函数代替sigmoid函数中心化数据,使得数据的平均值更接近0而不是0.5.

这会使下一层学习简单一点,在第二门课中会详细讲解。

在讨论优化算法时,有一点要说明:我基本已经不用sigmoid激活函数了,tanh函数在所有场合都优于sigmoid函数。

但有一个例外:在二分类的问题中,对于输出层,因为 yyy 的值是0或1,所以想让 y^\hat{y}y^​ 的数值介于0和1之间,而不是在-1和+1之间。所以需要使用sigmoid激活函数。这里的公式3.21: g(z[2])=σ(z[2])g(z^{[2]})=\sigma(z^{[2]})g(z[2])=σ(z[2]) 在这个例子里看到的是,对隐藏层使用tanh激活函数,输出层使用sigmoid函数。

所以,在不同的神经网络层中,激活函数可以不同。为了表示不同的激活函数,在不同的层中,使用方括号上标来指出 ggg 上标为 [1][1][1] 的激活函数,可能会跟 ggg 上标 [2][2][2] 为不同。方括号上标代表隐藏层,方括号上标表示输出层。

sigmoid函数和tanh函数两者共同的缺点是,在 zzz 特别大或者特别小的情况下,导数的梯度或者函数的斜率会变得特别小,最后就会接近于0,导致降低梯度下降的速度。

在机器学习另一个很流行的函数是:修正线性单元的函数(ReLu),ReLu函数图像是如下图。 公式3.22: a=max(0,z)a=max(0,z)a=max(0,z) 所以,只要 zzz 是正值的情况下,导数恒等于1,当 zzz 是负值的时候,导数恒等于0。从实际上来说,当使用 zzz 的导数时,z=0z=0z=0 的导数是没有定义的。但是当编程实现的时候, zzz 的取值刚好等于0.00000001,这个值相当小,所以,在实践中,不需要担心这个值, zzz 是等于0的时候,假设一个导数是1或者0效果都可以。

这有一些选择激活函数的经验法则:

如果输出是0、1值(二分类问题),则输出层选择sigmoid函数,然后其它的所有单元都选择Relu函数。

这是很多激活函数的默认选择,如果在隐藏层上不确定使用哪个激活函数,那么通常会使用Relu激活函数。有时,也会使用tanh激活函数,但Relu的一个优点是:当 zzz 是负值的时候,导数等于0。

这里也有另一个版本的Relu被称为Leaky Relu

当 zzz 是负值时,这个函数的值不是等于0,而是轻微的倾斜,如图。

这个函数通常比Relu激活函数效果要好,尽管在实际中Leaky ReLu使用的并不多。

两者的优点是:

第一,在 zzz 的区间变动很大的情况下,激活函数的导数或者激活函数的斜率都会远大于0,在程序实现就是一个if-else语句,而sigmoid函数需要进行浮点四则运算,在实践中,使用ReLu激活函数神经网络通常会比使用sigmoid或者tanh激活函数学习的更快。

第二,sigmoidtanh函数的导数在正负饱和区的梯度都会接近于0,这会造成梯度弥散,而ReluLeaky ReLu函数大于0部分都为常数,不会产生梯度弥散现象。(同时应该注意到的是,Relu进入负半区的时候,梯度为0,神经元此时不会训练,产生所谓的稀疏性,而Leaky ReLu不会有这问题)

zzz 在ReLu的梯度一半都是0,但是,有足够的隐藏层使得z值大于0,所以对大多数的训练数据来说学习过程仍然可以很快。

快速概括一下不同激活函数的过程和结论。

sigmoid激活函数:除了输出层是一个二分类问题基本不会用它。

tanh激活函数:tanh是非常优秀的,几乎适合所有场合。

ReLu激活函数:最常用的默认函数,,如果不确定用哪个激活函数,就使用ReLu或者Leaky ReLu。公式3.23: a=max(0.01z,z)a=max(0.01z,z)a=max(0.01z,z) 为什么常数是0.01?当然,可以为学习算法选择不同的参数。

在选择自己神经网络的激活函数时,有一定的直观感受,在深度学习中的经常遇到一个问题:在编写神经网络的时候,会有很多选择:隐藏层单元的个数、激活函数的选择、初始化权值……这些选择想得到一个对比较好的指导原则是挺困难的。

鉴于以上三个原因,以及在工业界的见闻,提供一种直观的感受,哪一种工业界用的多,哪一种用的少。但是,自己的神经网络的应用,以及其特殊性,是很难提前知道选择哪些效果更好。所以通常的建议是:如果不确定哪一个激活函数效果更好,可以把它们都试试,然后在验证集或者发展集上进行评价。然后看哪一种表现的更好,就去使用它。

为自己的神经网络的应用测试这些不同的选择,会在以后检验自己的神经网络或者评估算法的时候,看到不同的效果。如果仅仅遵守使用默认的ReLu激活函数,而不要用其他的激励函数,那就可能在近期或者往后,每次解决问题的时候都使用相同的办法。

课程板书




←上一篇 ↓↑ 下一篇→
3.5 向量化实现的解释 回到目录 3.7 为什么需要非线性激活函数

3.6 激活函数-深度学习-Stanford吴恩达教授相关推荐

  1. 3.7 为什么需要非线性激活函数-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.6 激活函数 回到目录 3.8 激活函数的导数 为什么需要非线性激活函数 (Why do you need non-linear activation function? ...

  2. 2.19 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.18 Logistic 损失函数的解释 回到目录 3.1 神经网络概览 文章目录 总结 习题 第 11 题 第 12 题 第 13 题 第 14 题 第 15 题 第 1 ...

  3. 3.12 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.11 随机初始化 回到目录 4.1 深层神经网络 文章目录 总结 习题 第 21 题 第 22 题 第 23 题 第 24 题 第 25 题 第 26 题 第 27 题 ...

  4. 3.5 向量化实现的解释-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.4 多个例子中的向量化 回到目录 3.6 激活函数 向量化实现的解释 (Explanation for Vectorized Implementation) 在上一个视频 ...

  5. 3.10 直观理解反向传播-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.9 神经网络的梯度下降法 回到目录 3.11 随机初始化 直观理解反向传播 (Backpropagation Intuition (Optional)) 这个视频主要是推 ...

  6. 4.7 参数 vs 超参数-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 4.6 前向和反向传播 回到目录 4.8 这和大脑有什么关系 参数 vs 超参数 (Parameters vs. Hyperparameters) 想要你的深度神经网络起很好 ...

  7. 4.1 深层神经网络-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.12 总结习题 回到目录 4.2 深层网络中的前向传播 深层神经网络 (Deep L-layer Neural Network) 目前为止我们学习了只有一个单独隐藏层的神 ...

  8. 3.9 神经网络的梯度下降法-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.8 激活函数的导数 回到目录 3.10 直观理解反向传播 神经网络的梯度下降法 (Gradient Descent for Neural Networks) 在这个视频中 ...

  9. 1.7 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.6 课程资源 回到目录 2.1 二元分类 总结 习题 第 1 题 "人工智能是新电力"这个比喻指的是什么? A.人工智能为我们的家庭和办公室的个人设备 ...

最新文章

  1. Cordova webapp实战开发:(1)为什么选择 Cordova webapp?
  2. C++——Lambda函数
  3. Flutter 动画全解析(动画四要素、动画组件、隐式动画组件原理等)
  4. PowerBuilder窗口之间传递多参数的方法
  5. 如何改变UITableViewCell的选中样式(颜色)?storyboard上cell的selection不可用?
  6. 一名“企业定制化人才”的自诉:“我不愿意,但却无可奈何”
  7. Ajax 实现在WebForm中拖动控件并即时在服务端保存状态数据 (Asp.net 2.0)(示例代码下载)...
  8. MySQL无法启动服务器(1067)
  9. outlook2016投票_投票:2016年读者选择奖和最佳采访奖
  10. OpenCV_Camera Calibration and Rectification under QT creator( 相机标定及矫正 | QT creator环境 )
  11. 学习信号与系统的看过来~~
  12. LLVM PASS类pwn题入门
  13. JavaScript提示框
  14. 怎样在电脑上设置路由器的WiFi密码
  15. 电脑鼠标点一下就选很多程序
  16. 搭建魔兽世界服务端编译环境
  17. 【UE4 虚幻引擎 学习笔记二】引擎内按键输入简单设置
  18. python制作工资表_Python实用案例:一秒自动生成工资条。
  19. 红蜘蛛,极域,伽卡他卡,传奇电子教室的破解(源代码)
  20. Nothing——for 情人节

热门文章

  1. Vue项目构建设计说明
  2. SpringBoot打包部署到环境
  3. 【37.50%】【codeforces 745B】Hongcow Solves A Puzzle
  4. Jquery JS 正确比较两个数字大小的方法
  5. asp.net web 开发登录相关操作的控件LoginName、LoginStatus和LoginView控件使用详解
  6. Java联网技术之一HTTP
  7. 关于Integer类中parseInt()和valueOf()方法的区别以及int和String类性的转换.以及String类valueOf()方法...
  8. matlab GUI 初学
  9. 博客园上海俱乐部Windows 7社区发布活动的奖品
  10. UA OPTI512R 傅立叶光学导论22 透镜成像与傅立叶变换