昨天在听师弟师妹分享图卷积神经网络一篇paper的时候,看到一个激活函数LeakyReLU,因此萌生了学习一下的想法。

1、为什么需要非线性激活函数?

首先这个问题其实可以拆分成个问题:①为啥需要激活函数?②为啥还是非线性的激活函数?

对于第一个问题来说,在神经网络中,我们增加了激活函数就是想增加模型的学习能力,让表达的能力增强而不只是简单的线性组合。

对于第二个问题来说,因为如果是线性的激活函数,比如y=kx(k≠0),那么经过三层激活以后其实学到的东西很有限,可能仅仅堆叠多个线性层。

总而言之,我们在神经网络中需要非线性的激活函数就是想让每一层学习到的信息足够多,让模型的表达能力增强。

2、非线性激活函数都有哪些?

  • Sigmoid
  • Tanh
  • Sigmoid
  • ReLU
  • LeakyReLU
  • ........

3、ReLu和LeakyReLU的优缺点

①ReLU

优点:解决了梯度消失的问题;计算成本低,函数比较简单。

缺点:会产生Dead Neurons,因此当x<0的时候梯度就变为0,这些神经元就变得无效,这些神经元在后面的训练过程就不会更新

②LeakyReLU

n

优点:是ReLU函数的一个变体,解决了ReLU函数存在的问题,α的默认往往是非常小的,比如0.01,这样就保证了Dead Neurons的问题

缺点:由于它具有线性特性,不能用于复杂的分类问题。

以上截图来自https://ml-cheatsheet.readthedocs.io/en/latest/activation_functions.html#leakyrelu

总结:每个激活函数都有其优缺点,虽然LeakyReLU改正了ReLU激活函数存在的问题,但是ReLU激活函数依然是现在非常主流的激活函数。还有两种其它的ReLU变体:①α的值是在某个区间随机的;②α的值是变得。

Pytorch激活函数之Relu家族:ReLU、LeakyReLU等相关推荐

  1. PyTorch | 激活函数(Sigmoid、Tanh、ReLU和Leaky ReLU)

    PyTorch | 激活函数(Sigmoid.Tanh.ReLU) 1. 简介 2. 函数饱和性 3. 以零为中心 3.1 收敛速度 3.2 参数更新 3.3 更新方向 3.4 以零为中心的影响 4. ...

  2. PyTorch学习笔记:nn.ReLU——ReLU激活函数

    PyTorch学习笔记:nn.ReLU--ReLU激活函数 torch.nn.ReLU(inplace=False) 功能:逐元素应用ReLU函数对数据进行激活 函数方程: R e L U ( x ) ...

  3. [Pytorch 常用函数] 激活函数Relu, Leaky Relu

    修正线性单元(Rectified linear unit,ReLU)是神经网络中最常用的激活函数.它保留了 step 函数的生物学启发(只有输入超出阈值时神经元才激活),不过当输入为正的时候,导数不为 ...

  4. 【深度学习】激活函数:原理+常见激活函数(Sigmoid\Tanh\ReLU\Leaky ReLU\Softmax)

    首先需要知道为什么要引入激活函数:激活函数是用来加入非线性因素的,因为线性模型的表达能力不够.引入非线性激活函数,可使深层神经网络的表达能力更加强大. 在深度学习中,线性模型只需要简单的全连接层就能实 ...

  5. 常用的激活函数汇总-Sigmoid, tanh, relu, elu

    激活函数(又叫激励函数,后面就全部统称为激活函数)是模型整个结构中的非线性扭曲力,神经网络的每层都会有一个激活函数.那他到底是什么,有什么作用?都有哪些常见的激活函数呢? 深度学习的基本原理就是基于人 ...

  6. sigmoid函数解决溢出_常见激活函数优缺点与dead relu problem

    转载自: G-kdom:温故知新--激活函数及其各自的优缺点​zhuanlan.zhihu.com 1.什么是激活函数? 所谓激活函数(Activation Function),就是在人工神经网络的神 ...

  7. 【卷积神经网络】12、激活函数 | Tanh / Sigmoid / ReLU / Leaky ReLU / ELU / SiLU / Mish

    文章目录 一.Tanh 二.Sigmoid 三.ReLU 四.Leaky ReLU 五.ELU 六.SiLU 七.Mish 本文主要介绍卷积神经网络中常用的激活函数及其各自的优缺点 最简单的激活函数被 ...

  8. 小白学GAN系列2——nn.ReLU与nn.LeakyReLU的区别

    nn.ReLU与nn.LeakyReLU的区别 因为之前从未接触过这方面,直接接手GAN,有点吃力,如有明显漏洞,请指正,我会感激不尽. 昨晚查阅了ReLU的含义,结果今天发现高老师给的代码中又有一个 ...

  9. 激活函数总结sigmoid,tanh,relu,Leaky ReLU,RRelu,ELU,PRelu,SELU,swish

    本文总结深度学习的损失函数及其优缺点. 激活函数是深度学习模型的重要成分,目的是将线性输入转换为非线性.常见的激活函数有sigmoid,tanh,ReLU等 1.sigmoid Sigmoid 非线性 ...

  10. 激活函数详解(ReLU/Leaky ReLU/ELU/SELU/Swish/Maxout/Sigmoid/tanh)

    神经网络中使用激活函数来加入非线性因素,提高模型的表达能力. ReLU(Rectified Linear Unit,修正线性单元) 形式如下: ReLU公式近似推导:: 下面解释上述公式中的softp ...

最新文章

  1. python变量名包括_Python – 获取全局范围内对象的所有变量名
  2. 1.6-1.7配置IP1.8网络问题排查
  3. mysql 不能添加外键 1215_MySQL错误1215:无法添加外键约束
  4. Ubuntu桌面培训(Ubuntu Desktop Course)中文译本发布
  5. 【数据可视化】使用pyecharts绘制南丁格尔玫瑰图和水平堆叠条形图
  6. 公众号文章批量导出工具
  7. 分治算法实现经典归并排序java实现
  8. 联想G480 i3 2348M扩展内存
  9. 基于STM32的EtherCAT从站IO讲解
  10. 洛谷-P1598- 垂直直方图
  11. PTA 数据结构与算法 7-29 修理牧场
  12. 2022长安杯复盘——lucid凡
  13. 基于ZigBee+ESP32+MQTT+EMQX+TomCat+Servlet接口+MySQL+安卓app的物联网课设
  14. 软件测试方法的分类及工具推荐
  15. [JavaScript犀牛书]第二章 词法结构
  16. 系统工程师应具备的技能
  17. 新一代“四型机场”,青岛胶东国际机场正式实施转场运营
  18. 【高等数学】三.一元函数积分学
  19. from sknn.mlp import Regressor,Layer 报错
  20. RDD: 断点回归的非参数估计及Stata实现

热门文章

  1. 程序员的修炼-从优秀到卓越札记:阅读之美
  2. 递归下降分析程序构造方法
  3. 线性代数之 矩阵求导(4)矩阵微分,迹与求导
  4. 和平精英吃鸡神器摇杆怎么控制?可以diy你尝试过吗?
  5. 基于ssm的驾校管理系统
  6. Kubernetes基础:滚动升级回滚:rolling-update之rollback
  7. 异常:app is in background uid UidRecord/stadid not then call Service.startForeground
  8. git-reflog用法回顾
  9. MATLAB软件入门分析(附卡尔曼滤波的例程、mlx文件)
  10. C2280 “std::_Uhash_compare<_Kty,_Hasher,_Keyeq>......尝试引用已删除的函数