为了保证神经元的计算包含简洁性和功能性,神经元的计算包括线性计算和非线性计算。

今天主要讲集中非线性计算(即激活函数),包括:

sigmoid

tanh

ReLU

leaky ReLU

1、sigmoid函数

sigmoid函数可以将输出映射到(0,1)的区间,适合做二分类任务。

sigmoid函数公式:

其导数为:

sigmoid函数图形为:

sigmoid函数具有平滑易于求导的优点,但是它的计算量大,反向传播时,容易出现梯度消失的情况,从未无法完成深层网络训练。

2、tanh函数

tanh函数和sigmoid函数十分相似,不同的是tanh会将输出映射到(-1,1)。

tanh函数公式:

tanh函数导数:

tanh函数图形为:

sigmoid函数和tanh函数是最早被研究的激活函数,tanh是sigmoid函数的改进版,改进了sigmoid函数不是以零为中心的问题,加快了收敛速度。因此在实际使用中,更多地是采用tanh函数。

梯度消失问题:

虽然tanh在一定程度上改进了sigmoid函数,但是观察这两种函数的图像会发现,当自变量很大或很小时,图形的斜率是接近0的。也就是说,当输入绝对值非常大的值时,输出值的变化不明显,这就是梯度消失问题。

3、ReLU

为了解决梯度消失问题,通常采用ReLU(Linear rectification function 修正线性单元)。

ReLU公式:

ReLU导数:

ReLU图形形状:

4、leaky ReLU

leaky ReLU是ReLU的一个变种,当x<0时,函数的梯度不为0,而是一个很小的常数 ,如0.01。

leaky ReLU公式:

leaky ReLU导数:

leaky ReLU图形:

在神经网络中,不同层可以有不同的激活函数,在二元分类任务时,我们可以在最后一层(即输出层)采用sigmoid函数,其它层采用ReLU或leaky ReLU。

激活函数(sigmoid、tanh、ReLU、leaky ReLU)相关推荐

  1. 激活函数总结sigmoid,tanh,relu,Leaky ReLU,RRelu,ELU,PRelu,SELU,swish

    本文总结深度学习的损失函数及其优缺点. 激活函数是深度学习模型的重要成分,目的是将线性输入转换为非线性.常见的激活函数有sigmoid,tanh,ReLU等 1.sigmoid Sigmoid 非线性 ...

  2. 【Pytorch神经网络理论篇】 07 激活函数+Sigmoid+tanh+ReLU+Swish+Mish+GELU

    ①激活函数:主要通过加入非线性因素,你不线性模型表达能力不足的缺陷,因为神经网络中的数学基础是处处可微分的函数,故要求激活函数也应该保证数据的输入与输出是可微分. ②激活函数可以分为饱和激活函数与不饱 ...

  3. 三种激活函数——Sigmoid,Tanh, ReLU以及卷积感受野的计算

    1. 三种激活函数--Sigmoid, Tanh, ReLU 1.1 Sigmoid 1.1.1 公式 S ( x ) = 1 1 + e − x S(x) = \frac{1}{1 + e^{-x} ...

  4. [Pytorch 常用函数] 激活函数Relu, Leaky Relu

    修正线性单元(Rectified linear unit,ReLU)是神经网络中最常用的激活函数.它保留了 step 函数的生物学启发(只有输入超出阈值时神经元才激活),不过当输入为正的时候,导数不为 ...

  5. R语言使用自定义函数编写深度学习Leaky ReLU激活函数、并可视化Leaky ReLU激活函数

    R语言使用自定义函数编写深度学习Leaky ReLU激活函数.并可视化Leaky ReLU激活函数 目录

  6. 【卷积神经网络】12、激活函数 | Tanh / Sigmoid / ReLU / Leaky ReLU / ELU / SiLU / Mish

    文章目录 一.Tanh 二.Sigmoid 三.ReLU 四.Leaky ReLU 五.ELU 六.SiLU 七.Mish 本文主要介绍卷积神经网络中常用的激活函数及其各自的优缺点 最简单的激活函数被 ...

  7. 【深度学习】激活函数:原理+常见激活函数(Sigmoid\Tanh\ReLU\Leaky ReLU\Softmax)

    首先需要知道为什么要引入激活函数:激活函数是用来加入非线性因素的,因为线性模型的表达能力不够.引入非线性激活函数,可使深层神经网络的表达能力更加强大. 在深度学习中,线性模型只需要简单的全连接层就能实 ...

  8. 激活函数详解(ReLU/Leaky ReLU/ELU/SELU/Swish/Maxout/Sigmoid/tanh)

    神经网络中使用激活函数来加入非线性因素,提高模型的表达能力. ReLU(Rectified Linear Unit,修正线性单元) 形式如下: ReLU公式近似推导:: 下面解释上述公式中的softp ...

  9. 激活函数--Sigmoid,tanh,RELU,RELU6,Mish,Leaky ReLU等

    激活函数 目前自己使用比较多的激活函数RELU, RELU6; LeakyReLU; SELU; Mish :激活函数看:计算量:准确率: 大多数激活函数pytorch里有已经包装好了: Non-li ...

  10. Python画Sigmoid、Relu、Softmax、Tanh、Leaky relu等函数(1)

    看鱼书有感,记录一下: 批处理的好处及小批量概念(2) Python(Numpy)实现均方差.交叉熵损失函数等(3) 纯Python实现:函数求导切线图.求偏导.梯度下降法(4) 纯Python实现反 ...

最新文章

  1. electron开发
  2. java短链接_java 生成短链接
  3. “约见”面试官系列之常见面试题之第五十五篇之清除浮动的方法(建议收藏)
  4. 【转】Burp Suite详细使用教程-Intruder模块详解
  5. 懒加载Lazy Loading
  6. kafka查看broker上主副本_kafka分区及副本在broker的分配
  7. java 正则表达式 Pattern
  8. 操作文件的类 File demo3 小练习
  9. 保证速度与心情——pdg转pdf与djvu转pdf大法(不像网上的好多方法那样麻烦,方便快捷,纯傻瓜化操作!)
  10. 在matlab中使用模糊编辑器实现模糊控制器的设计详解
  11. linux本地yum源配置
  12. 王阳明的心学精髓是什么?
  13. [导入]GIS的下个十年(Cary Mann, vice president, Bentley)
  14. ios markdown 解析_认识与入门 Markdown,Markdown教程
  15. 阿泰水晶报表补空行(分组)
  16. angular检测ie浏览器,并给用户提示
  17. 自学编程系列——5 pandas入门
  18. 关于软件测试你必须知道的名词
  19. 自定义 View 之 QQ 个人主页视差动画效果
  20. Linux学习笔记Day01-02 Xshell下载安装过程

热门文章

  1. Windows Server 2003 Key
  2. T-LESS: An RGB-D Dataset for 6D Pose Estimation of Texture-less Objects
  3. 小米双剑出鞘,红米2、小米4S所到之处尸横满地?
  4. VDD、VBAT、VDDA、VREF+区别
  5. deny of sb sth_deny的短语
  6. windows10下openpose的安装和配置使用教程(C++),以及常见错误分析。
  7. JavaScript_ES5和ES6
  8. ES5ES6 day16
  9. 用unity做的简单小游戏------“小球酷跑“
  10. 如何成为一名出色SEO从业人员