参考:1. pytorch学习笔记(九):PyTorch结构介绍

2.pytorch学习笔记(七):pytorch hook 和 关于pytorch backward过程的理解

3.Pytorch入门学习(三):Neural Networks

4.forward

神经网络的典型处理如下所示:

1. 定义可学习参数的网络结构(堆叠各层和层的设计);
2. 数据集输入;
3. 对输入进行处理(由定义的网络层进行处理),主要体现在网络的前向传播;
4. 计算loss ,由Loss层计算;
5. 反向传播求梯度;
6. 根据梯度改变参数值,最简单的实现方式(SGD)为:
   weight = weight - learning_rate * gradient
下面是利用PyTorch定义深度网络层(Op)示例:

  1. class FeatureL2Norm(torch.nn.Module):
  2. def __init__(self):
  3. super(FeatureL2Norm, self).__init__()
  4. def forward(self, feature):
  5. epsilon = 1e-6
  6. # print(feature.size())
  7. # print(torch.pow(torch.sum(torch.pow(feature,2),1)+epsilon,0.5).size())
  8. norm = torch.pow(torch.sum(torch.pow(feature,2),1)+epsilon,0.5).unsqueeze(1).expand_as(feature)
  9. return torch.div(feature,norm)
  1. class FeatureRegression(nn.Module):
  2. def __init__(self, output_dim=6, use_cuda=True):
  3. super(FeatureRegression, self).__init__()
  4. self.conv = nn.Sequential(
  5. nn.Conv2d(225, 128, kernel_size=7, padding=0),
  6. nn.BatchNorm2d(128),
  7. nn.ReLU(inplace=True),
  8. nn.Conv2d(128, 64, kernel_size=5, padding=0),
  9. nn.BatchNorm2d(64),
  10. nn.ReLU(inplace=True),
  11. )
  12. self.linear = nn.Linear(64 * 5 * 5, output_dim)
  13. if use_cuda:
  14. self.conv.cuda()
  15. self.linear.cuda()
  16. def forward(self, x):
  17. x = self.conv(x)
  18. x = x.view(x.size(0), -1)
  19. x = self.linear(x)
  20. return x

由上例代码可以看到,不论是在定义网络结构还是定义网络层的操作(Op),均需要定义forward函数,下面看一下PyTorch官网对PyTorch的forward方法的描述:

那么调用forward方法的具体流程是什么样的呢?具体流程是这样的:

以一个Module为例:
1. 调用module的call方法
2. module的call里面调用module的forward方法
3. forward里面如果碰到Module的子类,回到第1步,如果碰到的是Function的子类,继续往下
4. 调用Function的call方法
5. Function的call方法调用了Function的forward方法。
6. Function的forward返回值
7. module的forward返回值
8. 在module的call进行forward_hook操作,然后返回值
上述中“调用module的call方法”是指nn.Module 的__call__方法。定义__call__方法的类可以当作函数调用,具体参考Python的面向对象编程。也就是说,当把定义的网络模型model当作函数调用的时候就自动调用定义的网络模型的forward方法。nn.Module 的__call__方法部分源码如下所示:

  1. def __call__(self, *input, **kwargs):
  2. result = self.forward(*input, **kwargs)
  3. for hook in self._forward_hooks.values():
  4. #将注册的hook拿出来用
  5. hook_result = hook(self, input, result)
  6. ...
  7. return result

可以看到,当执行model(x)的时候,底层自动调用forward方法计算结果。具体示例如下:

  1. class Function:
  2. def __init__(self):
  3. ...
  4. def forward(self, inputs):
  5. ...
  6. return outputs
  7. def backward(self, grad_outs):
  8. ...
  9. return grad_ins
  10. def _backward(self, grad_outs):
  11. hooked_grad_outs = grad_outs
  12. for hook in hook_in_outputs:
  13. hooked_grad_outs = hook(hooked_grad_outs)
  14. grad_ins = self.backward(hooked_grad_outs)
  15. hooked_grad_ins = grad_ins
  16. for hook in hooks_in_module:
  17. hooked_grad_ins = hook(hooked_grad_ins)
  18. return hooked_grad_ins

model = LeNet()
y = model(x)
如上则调用网络模型定义的forward方法。

PyTorch之前向传播函数自动调用forward相关推荐

  1. pytorch 调用forward 的具体流程

    forward方法的具体流程: 以一个Module为例: 1. 调用module的call方法 2. module的call里面调用module的forward方法 3. forward里面如果碰到M ...

  2. Pytorch中什么时候调用forward()函数

    Module类是nn模块里提供的一个模型构造类,是所有神经网络模块的基类,我们可以继承它来定义我们想要的模型.下面继承Module类构造本节开头提到的多层感知机.这里定义的MLP类重载了Module类 ...

  3. PyTorch定义新的自动求导(Autograd) 函数

    PyTorch定义新的自动求导(Autograd) 函数 pytorch官网提供了定义新的求导函数的方法(链接放在文章末尾了),官网举的例子,可能我比较笨,愣是反应了好一会儿才理解.这篇博客主要讲 P ...

  4. PyTorch的计算图和自动求导机制

    文章目录 PyTorch的计算图和自动求导机制 自动求导机制简介 自动求导机制实例 梯度函数的使用 计算图构建的启用和禁用 总结 PyTorch的计算图和自动求导机制 自动求导机制简介 PyTorch ...

  5. python中forward函数的引用_pytorch 调用forward 的具体流程

    forward方法的具体流程: 以一个Module为例: 1. 调用module的call方法 2. module的call里面调用module的forward方法 3. forward里面如果碰到M ...

  6. 【从零学Python】什么时候调用forward()函数、图片预处理、return中的if...else...

    1.什么时候调用forward()函数 因为Module类是nn模块里提供的一个模型构造类,是所有神经网络模块的基类,我们可以继承它来定义我们想要的模型. import torch from torc ...

  7. PyTorch函数中的__call__和forward函数

    初学nn.Module,看不懂各种调用,后来看明白了,估计会忘,故写篇笔记记录 init & call 代码: class A():def __init__(self):print('init ...

  8. SAP WM初阶之MIGO过账后自动调用LT06事务代码

    SAP WM初阶之MIGO过账后自动调用LT06事务代码 1, 执行事务代码MIGO,移动类型201,做一笔发货到成本中心的过账. 输入好相关数据后,过账, 系统自动生成物料凭证号,且自动切换到LT0 ...

  9. thinkphp模型中的获取器和修改器(根据字段名自动调用模型中的方法)

    thinkphp模型中的获取器和修改器(根据字段名自动调用模型中的方法) 一.总结 记得看下面 1.获取器的作用是在获取数据的字段值后自动进行处理 2.修改器的作用是可以在数据赋值的时候自动进行转换处 ...

最新文章

  1. 操作系统2--操作系统结构
  2. oracle正确维护归档,转载:ORACLE正确删除归档日志的方法
  3. powerquery mysql数据库_window 10 下 --excel | power query 通过 ODBC链接 mysql 数据库
  4. 中考新大纲:初中数学无非就这26个考点!孩子吃透,再笨也能考115分!
  5. 如何更好阅读源代码 .
  6. python3.4安装vc_Python3.4 用 pip 安装lxml时出现 “Unable to find vcvarsall.bat ”?
  7. 恢复出厂设置android手机号码,安卓手机怎么恢复出厂设置
  8. iOS - AutoLayout
  9. swift 笔记 (十三) —— 继承
  10. libusb的使用教程和例子
  11. php 判断当前协议,JavaScript 判断当前协议是http还是https
  12. Android ListView 技巧 (一) Android ListView Header
  13. jvm系列(五):tomcat性能调优和性能监控(visualvm)
  14. okHttp3自用封装
  15. 【Python】多线程下载韩寒博客文章
  16. python识别车辆图片_opencv+python车辆识别
  17. 2022年拼多多双十二活动什么时候开始?会有哪些福利?
  18. 职业发展,选择大都市还是回老家?
  19. 算法(赛马问题)图解
  20. js监听浏览器关闭事件(区分刷新和关闭,兼容IE9,10,11,Edge,Chrome和Firefox)

热门文章

  1. 数据库中自定义排序规则,Mysql中自定义字段排序规则,Oracle中自定义字段排序规则,decode函数的用法,field函数的用法
  2. Linux shell 学习笔记(8)— 使用结构化命令(if-then 语句、数值比较、字符串比较、文件比较、case 语句)
  3. McCabe度量法计算程序的环路复杂性
  4. java锁(公平锁和非公平锁、可重入锁(又名递归锁)、自旋锁、独占锁(写)/共享锁(读)/互斥锁、读写锁)
  5. 高并发下的接口幂等性解决方案
  6. PyTorch 自动微分示例
  7. 预测汽车级Linux专业技术的需求
  8. C/C++语言编程的隐患!
  9. 摄像头定位:ICCV2019论文解析
  10. Android 设置透明的方法