selu激活函数和自归一化网络(SNN)
最近出现了一个新的激活函数:缩放指数线性单元(scaled exponential linear units,selu),根据该激活函数得到的网络具有自归一化功能。
首先给出文章地址:https://arxiv.org/pdf/1706.02515.pdf
然后大概讲一下这个激活函数的作用(个人理解,也有可能有误)。
一般在深度学习中,在每层添加批处理能够使得网络收敛的更快,同时在效果上也有提升。
这篇文章就在思考,能不能够提出一种激活函数,经过该激活函数后使得样本分布自动归一化到0均值和单位方差,在这篇文章中,作者给出了长达97的证明,证明了在满足以下两个条件的情况下,使用该激活函数后使得样本分布满足零均值和单位方差:
1 按照给定的参数对权重初始化:对于正态分布的初始化,初始化参数为0均值,方差为sqrt(1/n),n是输入的通道个数,在tensorflow里面提供的比较好的实现:
tf.initializers.variance_scaling_initializer(factor=1.0,model=’FAN_IN’)
也可以自己直接指定,详细的参数介绍可以看看下面的网站:http://www.cnblogs.com/denny402/p/6932956.html
2 按照给定的参数对样本计算激活函数:
其中lamada:1.0507009873554804934193349852946
alpha:1.6732632423543772848170429916717
这两个值是在文章中进行证明后得到的,如果需要得到归一化后得到指定均值和方差的lamada和alpha,文章中也给出了相应的计算公式。
下面给出tensorflow中实现的selu激活函数:
def selu(x):with ops.name_scope('elu') as scope:alpha = 1.6732632423543772848170429916717scale = 1.0507009873554804934193349852946return scale*tf.where(x>0.0,x,alpha*tf.nn.elu(x))
selu激活函数和自归一化网络(SNN)相关推荐
- 3.4 归一化网络的激活函数-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
←上一篇 ↓↑ 下一篇→ 3.3 超参数训练的实践: Pandas vs. Caviar 回到目录 3.5 将 Batch Norm 拟合进神经网络 归一化网络的激活函数 (Normalizing A ...
- ARTS-23(35. 搜索插入位置,SELU激活函数,本周几个问题, 招商银行财报分析)
Algorithm https://leetcode-cn.com/problems/search-insert-position/ 35. 搜索插入位置 给定一个排序数组和一个目标值,在数组中找到目 ...
- SELU激活函数,scaled exponential linear units
SELU.ReLU.leaky ReLU对比: https://github.com/shaohua0116/Activation-Visualization-Histogram 关于SELU激活函数 ...
- SELU︱在keras、tensorflow中使用SELU激活函数
arXiv 上公开的一篇 NIPS 投稿论文<Self-Normalizing Neural Networks>引起了圈内极大的关注,它提出了缩放指数型线性单元(SELU)而引进了自归一化 ...
- 【转载】SELU 激活函数
说明 本文非本人所著,转载自 https://www.jianshu.com/p/3a43a6a860ef. 主要内容为李宏毅老师深度学习课程某次讲的 SELU 激活函数课程.由于课堂效果极好(实验部 ...
- 李宏毅课程:SELU 激活函数
著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 原文: https://www.cnblogs.com/makefile/p/dropout.html © 康行天下 Alpha ...
- 深度学习笔记(12) Batch归一化网络
深度学习笔记(12) Batch归一化网络 1. Batch归一化 2. 激活值归一化 3. 特殊情况不归一化 4. mini-batch上的Batch归一化 1. Batch归一化 Batch归一化 ...
- R语言使用自定义函数编写深度学习Scaled Exponential Linear Unit (SELU)激活函数、并可视化SELU激活函数
R语言使用自定义函数编写深度学习Scaled Exponential Linear Unit (SELU)激活函数.并可视化SELU激活函数 目录
- 深层神经网络和批归一化操作、selu激活函数、dropout
深层神经网络其实对比之前的分类模型,他的网络层数更深,层数更多,但是,有时候也会造成过拟合的风险因为参数过多,导致全部拟合完容易记住样本. model = keras.models.Sequentia ...
最新文章
- jfinal上传文件
- CentOS 7 巨大变动之 firewalld 取代 iptables
- 一般是一个较为复杂的 飞鸽传书 对象
- 两个月新增 80万行代码,Linux 内核维护为什么不会崩?
- 运维基础--用户的权限管理
- HDU1052——Tian Ji -- The Horse Racing
- 7.Docker技术入门与实战 --- 端口映射与容器互联
- android源码下编译自有工程通用make模板
- 进程调度算法(c语言)
- 【办公自动化】国土“三调”用地分类“一键”转南京分类
- 【STM32H7的DSP教程】第26章 FFT变换结果的物理意义
- excel中的if函数使用方法
- linux下登录不上oracle,Oracle特定用户登录失败案例 ORA-20001
- MySQL连接、SSL加密与密码插件
- linux 查看内存 udimm rdimm,关于内存类型UDIMM、RDIMM、LRDIMM
- GitHub上Java捕鱼达人源码分析(fishlord)
- 基于SSM的宠物医院信息系统设计与实现
- oracle关于索引
- 如何在在网站上下载视频
- git解决拉取代码本地代码未提交
热门文章
- 变频调速设计matlab,变频调速系统Matlab仿真及硬件实现
- OpenLDAP使用ACL命令禁止匿名登录
- PHP广告横幅在线制作网站源码
- PKG文件内容和定义
- 自定义new Date()格式显示,适用JavaScript / Nodejs / Vue / React / UniApp / 其他基于js工程的项目
- AXI2Standard_handshake_bridge 设计
- zabbix配置详解---为新手入门而写
- 二值化图片数据解码显示(Grayscale8、Grayscale16、RGB888)————附带Qt版完整代码
- PS命令、procfs
- 《花雕学AI》ChatGPT 的 Prompt 用法,不是随便写就行的,这 13 种才是最有效的