1.1 激活函数(Activation functions)

  • 选择激活函数的经验法则

如果输出是0、1值(二分类问题),则输出层选择sigmoid函数,然后其它的所有单元都选择Relu函数。

这是很多激活函数的默认选择,如果在隐藏层上不确定使用哪个激活函数,那么通常会使用Relu激活函数。有时,也会使用tanh激活函数,但Relu的一个优点是:当是负值的时候,导数等于0。

这里也有另一个版本的Relu被称为Leaky Relu。

当是负值时,这个函数的值不是等于0,而是轻微的倾斜,如图。

这个函数通常比Relu激活函数效果要好,尽管在实际中Leaky ReLu使用的并不多。

  • 概括一下不同激活函数的过程和结论

sigmoid激活函数:除了输出层是一个二分类问题基本不会用它。

tanh激活函数:tanh是非常优秀的,几乎适合所有场合。

ReLu激活函数:最常用的默认函数,如果不确定用哪个激活函数,就使用ReLu或者Leaky ReLu。

1.2 为什么需要非线性激活函数?(why need a nonlinear activation function?)

事实证明如果在隐藏层用线性激活函数,在输出层用sigmoid函数,那么这个模型的复杂度和没有任何隐藏层的标准Logistic回归是一样的。

在这里线性隐层一点用也没有,因为这两个线性函数的组合本身就是线性函数,所以除非引入非线性,否则无法计算更有趣的函数,即使网络层数再多也不行。

只有一个地方可以使用线性激活函数------g(z)=z,就是在做机器学习中的回归问题。 是一个实数,举个例子,比如想预测房地产价格, 就不是二分类任务0或1,而是一个实数,从0到正无穷。如果是个实数,那么在输出层用线性激活函数也许可行,你的输出也是一个实数,从负无穷到正无穷。

总而言之,不能在隐藏层用线性激活函数,可以用ReLU或者tanh或者leaky ReLU或者其他的非线性激活函数,唯一可以用线性激活函数的通常就是输出层。

1. 激活函数(Activation functions)相关推荐

  1. Pytorch专题实战——激活函数(Activation Functions)

    文章目录 1.激活函数的两种用法 1.1.softmax激活函数 1.2.sigmoid激活函数 1.3.tanh激活函数 1.4.relu激活函数 1.5.leaky_relu激活函数 2.用激活函 ...

  2. 激活函数(Activation Functions)

    神经网络结构的输出为所有输入的加权和,这导致整个神经网络是一个线性模型.如果将每一个神经元的输出通过一个非线性函数,那么整个神经网络的模型也就不再是线性的了,使得神经网络可以更好地解决较为复杂的问题. ...

  3. #Paper Reading# Implicit Neural Representations with Periodic Activation Functions

    论文题目: Implicit Neural Representations with Periodic Activation Functions 论文地址: https://arxiv.org/abs ...

  4. 隐式神经表示一:神经网络拟合图像Implicit Neural Representations with Periodic Activation Functions

    文章目录 1. Implicit Neural Representations with Periodic Activation Functions 0. 什么是隐式神经表示 1. 了解SineLay ...

  5. 激活函数 activation function

    文章目录 激活函数 activation function Sigmoid Sigmoid 反向传播 Tanh ReLU Dead ReLU Problem 产生的原因 激活函数 activation ...

  6. DeepLearning: 归纳几种常用的激活函数(activation)

    Deep Learning中常用的激活函数(activation) 1. sigmoid 表达式: a=sigmoid(z)=11+e−za = sigmoid(z) = \frac {1} {1 + ...

  7. Pytorch——激活函数(Activation Function)

    文章目录 1.非线性方程 2.激活函数 3.常用选择 4.代码 1.非线性方程 我们为什么要使用激励函数? 用简单的语句来概括. 就是因为, 现实并没有我们想象的那么美好, 它是残酷多变的. 哈哈, ...

  8. 激活函数activation总结

    激活函数在深度学习中扮演着非常重要的角色,它给网络赋予了非线性,从而使得神经网络能够拟合任意复杂的函数. 非线性激活函数可以使神经网络随意逼近复杂函数.没有激活函数带来的非线性,多层神经网络和单层无异 ...

  9. python license activation_激活函数activation

    TensorFlow的中阶API主要包括: 数据管道(tf.data) 特征列(tf.feature_column) 激活函数(tf.nn) 模型层(tf.keras.layers) 损失函数(tf. ...

最新文章

  1. leetcode算法题--打家劫舍II
  2. mysql 字符串大小写_Mysql 字符串类型及大小写
  3. Android -- Webview自适应屏幕
  4. 战争尾声(nowcoder 215073)
  5. WinCE系统字体的设置
  6. Java虚拟机-第二篇-GC算法与内存分配策略
  7. excel批量更改超链接_excel超链接应用:快速生成目录的几个方法-上
  8. GPT2实现考公申论文章生成
  9. php 制作通讯录,PHP 制作通讯录(五)
  10. 解决联想笔记本 FN键不起作用的方法
  11. 【转】武大张卢腾448分考研真实经历
  12. 【大话设计模式】——设计模式概论
  13. 两条纵坐标折线图绘制
  14. React中文文档之State and Lifecycle
  15. UNIX 标准化 --ISO C标准 IEEE POSIX 标准 Single Unix Specification(SUS)
  16. JACK——TeamsMaual6 Team Formation
  17. 80端口和8080端口的区别以及详情
  18. NOIP2017初赛试题
  19. 白内障手术后诊断PHP,单眼PHPV+先天性白内障患儿, 3岁11个月手术,术后注意事项...
  20. 网络打印两个基本端口(LPD和9100)的相关知识

热门文章

  1. 机器学习---数据科学包-第4天
  2. mysql实体监听器_使用remote_listener实现数据库与监听器分离 | HelloDML
  3. Requests如何在Python爬虫中实现post请求 ?
  4. 在vue中使用Google Recaptcha验证
  5. Linux常用基本命令分享
  6. mac系统如何进入系统偏好设置_技巧:5 种迅速定位 Mac「系统偏好设置」选项的方法...
  7. 用Python机器人监听微信群聊
  8. 【Esp32】Esp32+sx1268 Spi接口驱动SX1268模块
  9. runnable、callable、consumer、supplier
  10. 自组织竞争网络(SOM)