本次介绍PReLU激活函数,方法来自于何凯明paper 《Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification》.

  • PReLU激活
  • PReLU的几点说明

PReLU激活

PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU。二者的定义和区别如下图:

如果ai=0,那么PReLU退化为ReLU;如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。 有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。

PReLU的几点说明

(1) PReLU只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同channels使用相同的ai时,参数就更少了。

(2) BP更新ai时,采用的是带动量的更新方式,如下图:

上式的两个系数分别是动量和学习率。
需要特别注意的是:更新ai时不施加权重衰减(L2正则化),因为这会把ai很大程度上push到0。事实上,即使不加正则化,试验中ai也很少有超过1的。

(3) 整个论文,ai被初始化为0.25。

深度学习——PReLU激活相关推荐

  1. 深度学习基础(十二)—— ReLU vs PReLU

    从算法的命名上来说,PReLU 是对 ReLU 的进一步限制,事实上 PReLU(Parametric Rectified Linear Unit),也即 PReLU 是增加了参数修正的 ReLU. ...

  2. 深度学习Caffe 入门理解使用教程

    2019独角兽企业重金招聘Python工程师标准>>> 1.首先caffe 安装我就不解释了 如果有人安装不会的话 可以加我qq 1050316096 ,我会按照使用方式来介绍,首先 ...

  3. sigmoid函数_常用的激活(激励)函数——深度学习笔记(建议收藏)

    激活函数(又叫激励函数,后面就全部统称为激活函数)是模型整个结构中的非线性扭曲力,神经网络的每层都会有一个激活函数.那他到底是什么,有什么作用?都有哪些常见的激活函数呢? 深度学习的基本原理就是基于人 ...

  4. 【深度学习之美】激活引入非线性,池化预防过拟合(入门系列之十二)

    12.1 两个看似闲扯的问题 在开讲本章内容之前,先请你思考两个问题呗:第一个问题,你能用直线画出一张漂亮的笑脸吗?第二个问题是,你知道那副著名的对联:"诸葛一生唯谨慎,吕端大事不糊涂&qu ...

  5. A.深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等

    [深度学习入门到进阶]必看系列,含激活函数.优化策略.损失函数.模型调优.归一化算法.卷积模型.序列模型.预训练模型.对抗神经网络等 专栏详细介绍:[深度学习入门到进阶]必看系列,含激活函数.优化策略 ...

  6. 深度学习常用的激活函数以及python实现(Sigmoid、Tanh、ReLU、Softmax、Leaky ReLU、ELU、PReLU、Swish、Squareplus)

    2022.05.26更新 增加SMU激活函数 前言 激活函数是一种添加到人工神经网络中的函数,类似于人类大脑中基于神经元的模型,激活函数最终决定了要发射给下一个神经元的内容. 此图来自百度百科,其中s ...

  7. 深度学习入门(三)——神经元激活值的计算方法

    深度学习入门(三)--神经元激活值的计算方法 1.隐含层神经元的意义 介绍完全连接神经网络的基本结构和工作流程,可能会有人疑问了,神经元中存放的激活值是如何确定的?在解答这个问题之前,小编需要首先介绍 ...

  8. 深度学习激活函数总结(sigmoid,tanh,ReLU,Leaky ReLU,EReLU,PReLU,Softmax,Swish,Maxout,Softplus)

    摘要 本文总结了深度学习领域最常见的10中激活函数(sigmoid.Tanh.ReLU.Leaky ReLU.ELU.PReLU.Softmax.Swith.Maxout.Softplus)及其优缺点 ...

  9. 40系笔记本(可不联网激活)深度学习生产力(环境配置和简单训练测试)

    40系笔记本深度学习.转码生产力(环境配置和简单训练测试)这里写自定义目录标题 深度学习环境准备 CUDA.CUDNN版本问题 torch版本问题 其他软件版本的安装命令 训练测试代码地址 关于Lin ...

  10. 深度学习最常用的10个激活函数

    那就让我们来整理一下深度学习中离不开的激活函数! 激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式.类似于人类大脑中基于神经元的模型 ...

最新文章

  1. 基于近距离的测距感知传感器调研以及扩展介绍
  2. 2020人工神经网络第一次作业-参考答案第七部分
  3. CYQ.Data 轻量数据层之路 使用篇五曲 MProc 存储过程与SQL(十六)
  4. 树莓派:挂载网络存储网络硬盘
  5. Matlab中求数据概率分布的方法
  6. ArcEngine和GDAL读写栅格数据机制对比(一)
  7. python创建person类用printinfo方法_python基础练习题7
  8. Unix环境高级编程 centos中配置apue编译环境
  9. 编译原理拉链回填技术c语言,编译原理 第1、2、3、4章复习(期末).doc
  10. HDFView的闪退问题
  11. IIC原理超详细讲解---值得一看
  12. DSP6678的多核启动
  13. python 给qq点赞_Python实现QQ自动点赞
  14. 用IDEA构建Vue项目(主要指令)
  15. 【C语言基础学习笔记】一、初始C语言(2)
  16. IDEA2021.2安装与配置(持续更新)
  17. iOS 9的App Thinning方案如何节省存储空间
  18. 创办公司流程及注意事项
  19. 2021年Android面试心得,系列教学
  20. html版电子表,秒表,倒计时

热门文章

  1. cypress自动化--运行测试用例报告输出
  2. 利用ADS 2019软件Designguide自动设计滤波器
  3. Makima修正Hermite插值
  4. cad---菜单,工具栏,屏幕菜单,增强工具栏
  5. 3d max morpher教程
  6. linux系统添加中文字体后不生效
  7. 计算机系统基础-袁春风老师-mooc-第二章测试习题及解析
  8. 来了 | Python 官方发布整套中文PDF文档(共27本)
  9. 哔哩下载姬(downkyi)v1.4.0 B站视频下载工具 哔哩哔哩视频解析
  10. 如何利用 RPA 实现自动化获客?