1. 激活函数(Activation functions)
1.1 激活函数(Activation functions)
- 选择激活函数的经验法则
如果输出是0、1值(二分类问题),则输出层选择sigmoid函数,然后其它的所有单元都选择Relu函数。
这是很多激活函数的默认选择,如果在隐藏层上不确定使用哪个激活函数,那么通常会使用Relu激活函数。有时,也会使用tanh激活函数,但Relu的一个优点是:当是负值的时候,导数等于0。
这里也有另一个版本的Relu被称为Leaky Relu。
当是负值时,这个函数的值不是等于0,而是轻微的倾斜,如图。
这个函数通常比Relu激活函数效果要好,尽管在实际中Leaky ReLu使用的并不多。
- 概括一下不同激活函数的过程和结论
sigmoid激活函数:除了输出层是一个二分类问题基本不会用它。
tanh激活函数:tanh是非常优秀的,几乎适合所有场合。
ReLu激活函数:最常用的默认函数,如果不确定用哪个激活函数,就使用ReLu或者Leaky ReLu。
1.2 为什么需要非线性激活函数?(why need a nonlinear activation function?)
事实证明如果在隐藏层用线性激活函数,在输出层用sigmoid函数,那么这个模型的复杂度和没有任何隐藏层的标准Logistic回归是一样的。
在这里线性隐层一点用也没有,因为这两个线性函数的组合本身就是线性函数,所以除非引入非线性,否则无法计算更有趣的函数,即使网络层数再多也不行。
只有一个地方可以使用线性激活函数------g(z)=z,就是在做机器学习中的回归问题。 是一个实数,举个例子,比如想预测房地产价格, 就不是二分类任务0或1,而是一个实数,从0到正无穷。如果是个实数,那么在输出层用线性激活函数也许可行,你的输出也是一个实数,从负无穷到正无穷。
总而言之,不能在隐藏层用线性激活函数,可以用ReLU或者tanh或者leaky ReLU或者其他的非线性激活函数,唯一可以用线性激活函数的通常就是输出层。
1. 激活函数(Activation functions)相关推荐
- Pytorch专题实战——激活函数(Activation Functions)
文章目录 1.激活函数的两种用法 1.1.softmax激活函数 1.2.sigmoid激活函数 1.3.tanh激活函数 1.4.relu激活函数 1.5.leaky_relu激活函数 2.用激活函 ...
- 激活函数(Activation Functions)
神经网络结构的输出为所有输入的加权和,这导致整个神经网络是一个线性模型.如果将每一个神经元的输出通过一个非线性函数,那么整个神经网络的模型也就不再是线性的了,使得神经网络可以更好地解决较为复杂的问题. ...
- #Paper Reading# Implicit Neural Representations with Periodic Activation Functions
论文题目: Implicit Neural Representations with Periodic Activation Functions 论文地址: https://arxiv.org/abs ...
- 隐式神经表示一:神经网络拟合图像Implicit Neural Representations with Periodic Activation Functions
文章目录 1. Implicit Neural Representations with Periodic Activation Functions 0. 什么是隐式神经表示 1. 了解SineLay ...
- 激活函数 activation function
文章目录 激活函数 activation function Sigmoid Sigmoid 反向传播 Tanh ReLU Dead ReLU Problem 产生的原因 激活函数 activation ...
- DeepLearning: 归纳几种常用的激活函数(activation)
Deep Learning中常用的激活函数(activation) 1. sigmoid 表达式: a=sigmoid(z)=11+e−za = sigmoid(z) = \frac {1} {1 + ...
- Pytorch——激活函数(Activation Function)
文章目录 1.非线性方程 2.激活函数 3.常用选择 4.代码 1.非线性方程 我们为什么要使用激励函数? 用简单的语句来概括. 就是因为, 现实并没有我们想象的那么美好, 它是残酷多变的. 哈哈, ...
- 激活函数activation总结
激活函数在深度学习中扮演着非常重要的角色,它给网络赋予了非线性,从而使得神经网络能够拟合任意复杂的函数. 非线性激活函数可以使神经网络随意逼近复杂函数.没有激活函数带来的非线性,多层神经网络和单层无异 ...
- python license activation_激活函数activation
TensorFlow的中阶API主要包括: 数据管道(tf.data) 特征列(tf.feature_column) 激活函数(tf.nn) 模型层(tf.keras.layers) 损失函数(tf. ...
最新文章
- leetcode算法题--打家劫舍II
- mysql 字符串大小写_Mysql 字符串类型及大小写
- Android -- Webview自适应屏幕
- 战争尾声(nowcoder 215073)
- WinCE系统字体的设置
- Java虚拟机-第二篇-GC算法与内存分配策略
- excel批量更改超链接_excel超链接应用:快速生成目录的几个方法-上
- GPT2实现考公申论文章生成
- php 制作通讯录,PHP 制作通讯录(五)
- 解决联想笔记本 FN键不起作用的方法
- 【转】武大张卢腾448分考研真实经历
- 【大话设计模式】——设计模式概论
- 两条纵坐标折线图绘制
- React中文文档之State and Lifecycle
- UNIX 标准化 --ISO C标准 IEEE POSIX 标准 Single Unix Specification(SUS)
- JACK——TeamsMaual6 Team Formation
- 80端口和8080端口的区别以及详情
- NOIP2017初赛试题
- 白内障手术后诊断PHP,单眼PHPV+先天性白内障患儿, 3岁11个月手术,术后注意事项...
- 网络打印两个基本端口(LPD和9100)的相关知识
热门文章
- 机器学习---数据科学包-第4天
- mysql实体监听器_使用remote_listener实现数据库与监听器分离 | HelloDML
- Requests如何在Python爬虫中实现post请求 ?
- 在vue中使用Google Recaptcha验证
- Linux常用基本命令分享
- mac系统如何进入系统偏好设置_技巧:5 种迅速定位 Mac「系统偏好设置」选项的方法...
- 用Python机器人监听微信群聊
- 【Esp32】Esp32+sx1268 Spi接口驱动SX1268模块
- runnable、callable、consumer、supplier
- 自组织竞争网络(SOM)