1、nn.PReLU()

nn.PReLU(num_parameters: int = 1,init: float = 0.25,device=None,dtype=None,
)

PReLU的公式:

或者:

其中a代表的是可学习的参数:

(1)当不带参数时(nn.PReLU()),PReLU就使用一个a计算所有通道,即所有通道对应同一个a;

(2)当有参数时(nn.PReLU(nchannels)),PReLU在每个通道使用不同的a;

通道dim是input的第二个dim。 当输入的 dims < 2 时,没有通道 dim 且通道数 = 1。同时输入和输出的形状是一样的。

PReLU()参数解析:

  • num_parameters:表示学习的参数,只有两个值是合法的,默认为1,或者是输入的通道数
  • init:a的初始值,默认为0.25;
  • device:None
  • dtype:None
m = nn.PReLU()
input = torch.randn(4)
print(input)
output = m(input)
print(output)
tensor([-0.6559, -0.3400, -0.5796,  1.2480])
tensor([-0.1640, -0.0850, -0.1449,  1.2480], grad_fn=<PreluBackward0>)
m = nn.PReLU(2)
input = torch.randn([2,2])
input.unsqueeze(0)
print(input)
output = m(input)
print(output)
tensor([[-0.7314,  0.0393],[ 0.0932, -0.7079]])
tensor([[-0.1828,  0.0393],[ 0.0932, -0.1770]], grad_fn=<PreluBackward0>)

2、nn.ReLU()

nn.ReLU(inplace: bool = False)

inplace: 即原地操作符,直接在原来的内存上改变变量的值,这里是默认False

相比PReLU是没有可学习的参数a;同样它的输入和输出的形状是保持一致的;

m = nn.ReLU()
input = torch.randn(2)
print(input)
output = m(input)
print(output)
tensor([-0.0453,  1.5118])
tensor([0.0000, 1.5118])

3、两者的比较

4、总结

ReLU函数的计算是在卷积之后进行的,它和tanh函数和sigmoid函数一样,都属于非线性激活函数。ReLU函数的倒数在正数部分是恒等于1的,因此在深度网络中使用relu激活函数就不会导致梯度小和爆炸的问题。并且,ReLU函数计算速度快,加快了网络的训练。不过,如果梯度过大,导致很多负数,由于负数部分值为0,这些神经元将无法激活(可通过设置较小学习率来解决,对应PReLU中的可学习参数a)。

nn.PReLU()和nn.ReLU相关推荐

  1. PyTorch学习笔记(1)nn.Sequential、nn.Conv2d、nn.BatchNorm2d、nn.ReLU和nn.MaxPool2d

    文章目录 一.nn.Sequential 二.nn.Conv2d 三.nn.BatchNorm2d 四.nn.ReLU 五.nn.MaxPool2d 一.nn.Sequential torch.nn. ...

  2. pytorch模型容器Containers nn.ModuleDict、nn.moduleList、nn.Sequential

    模型容器Containers之nn.ModuleDict.nn.moduleList.nn.Sequential nn.Sequential()对象 建立nn.Sequential()对象,必须小心确 ...

  3. DL之NN/CNN:NN算法进阶优化(本地数据集50000张训练集图片),六种不同优化算法实现手写数字图片识别逐步提高99.6%准确率

    DL之NN/CNN:NN算法进阶优化(本地数据集50000张训练集图片),六种不同优化算法实现手写数字图片识别逐步提高99.6%准确率 目录 设计思路 设计代码 设计思路 设计代码 import mn ...

  4. PyTorch中的nn.Conv1d与nn.Conv2d

    本文主要介绍PyTorch中的nn.Conv1d和nn.Conv2d方法,并给出相应代码示例,加深理解. 一维卷积nn.Conv1d 一般来说,一维卷积nn.Conv1d用于文本数据,只对宽度进行卷积 ...

  5. nn.functional 和 nn.Module入门讲解

    本文来自<20天吃透Pytorch> 一,nn.functional 和 nn.Module 前面我们介绍了Pytorch的张量的结构操作和数学运算中的一些常用API. 利用这些张量的AP ...

  6. 速成pytorch学习——5天nn.functional 和 nn.Module

    一,nn.functional 和 nn.Module 前面我们介绍了Pytorch的张量的结构操作和数学运算中的一些常用API. 利用这些张量的API我们可以构建出神经网络相关的组件(如激活函数,模 ...

  7. [Pytorch系列-30]:神经网络基础 - torch.nn库五大基本功能:nn.Parameter、nn.Linear、nn.functioinal、nn.Module、nn.Sequentia

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  8. nn.Sequential与nn.ModuleList

    1.nn.Sequential 模块按照顺序进行排列的,确保输入与输出模块的通道数相同(实际上是feature map数量). nn.Sequential写法有3种: 第一种写法: 创建nn.Sequ ...

  9. nn.Module、nn.Sequential和torch.nn.parameter学习笔记

    nn.Module.nn.Sequential和torch.nn.parameter是利用pytorch构建神经网络最重要的三个函数.搞清他们的具体用法是学习pytorch的必经之路. 目录 nn.M ...

  10. Pytorch —— nn.Module类(nn.sequential)

    对于前面的线性回归模型. Logistic回归模型和神经网络,我们在构建的时候定义了需要的参数.这对于比较小的模型是可行的,但是对于大的模型,比如100 层的神经网络,这个时候再去手动定义参数就显得非 ...

最新文章

  1. android 过滤格式,android Intent.setType() 过滤图片,返回所有的文件类型
  2. python字典生成式_【IT专家】Python 简化for循环:列表,集合与字典生成式
  3. mysql-行锁的实现
  4. 【BZOJ3712】Fiolki(并查集重构树)
  5. Android Navigation Drawer样式抽屉的使用
  6. 基于javaweb(springboot+mybatis)宠物医院预约管理系统设计和实现以及论文报告
  7. ExtJs UI框架学习五
  8. 用CSS编写登陆页面(含源代码)
  9. 用口诀背英语单词绿色版简介
  10. KDS加密软件的实际应用
  11. python 评论分析_python分析评论内容是积极的还是消极的(应用朴素做分词处理及情感识别)...
  12. 六西格玛黑带是什么?取得黑带认证有何意义?
  13. 房屋管理系统简单Damo
  14. node-red教程7.3 常见的显示型仪表板控件应用
  15. 使用Java处理键盘输入(DTMF)
  16. Mac一些基本常用快捷键的使用
  17. excel拆分表格之多条件拆分
  18. 多线程对H3C网络设备、安全设备进行配置备份【包含虚拟防火墙配置备份】
  19. Factory Methods
  20. 6、RocketMQ 源码解析之 Broker 启动(上)

热门文章

  1. url重写(urlrewrite.xml)
  2. express-urlrewrite express url重写
  3. 军用设备环境试验方法湿热试验标准
  4. 学会提问-批判性思维指南运用
  5. xshell 4无法保存新建session
  6. ads软件是什么?有什么用?怎么用?
  7. IOS视频播放器的使用(MPMoviePlayerController)
  8. 电商扣减库存_什么样的电商产品经理更值钱?先解决这个难题!
  9. QQ音乐下载的flac文件转码mp3文件
  10. 现代电工技术实训考核装置