class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

参数:Conv2d(

           输入channels,

           输出channels,

           kernel_size,)

备注:在定义了相应的卷积层后,会在model的state_dict中自动生成相关参数的state描述.

     每定义一个卷积层,会在model的state_dict中自动生成两个tensor参数:

         1)conv2d.weight     shape=[输出channels,输入channels,kernel_size,kernel_size]

         2)conv2d.bias   shape=[输出channels]

举例:

#定义一个卷积层 conv1
conv1 = torch.nn.Conv2d(5,10,3)
# 则在model的state_dict中会自动保存以下参数
conv1.weight    (torch.Size=[10, 5, 3, 3])
conv1.bias      (torch.Size()=[10])

示例2:

#-*-coding:utf-8-*-
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim# define model
class TheModelClass(nn.Module):def __init__(self):super(TheModelClass,self).__init__()self.conv1 = nn.Conv2d(3,6,5)self.pool = nn.MaxPool2d(2,2)self.conv2 = nn.Conv2d(6,16,5)self.fc1 = nn.Linear(16*5*5,120)self.fc2 = nn.Linear(120,84)self.fc3 = nn.Linear(84,10)def forward(self,x):x = self.pool(F.relu(self.conv1(x)))x = self.pool(F.relu(self.conv2(x)))x = x.view(-1,16*5*5)x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))x = self.fc3(x)return x# initial model
model = TheModelClass()#initialize the optimizer
optimizer = optim.SGD(model.parameters(),lr=0.001,momentum=0.9)# print the model's state_dict
print("model's state_dict:")
for param_tensor in model.state_dict():print(param_tensor,'\t',model.state_dict()[param_tensor].size())print("\noptimizer's state_dict")
for var_name in optimizer.state_dict():print(var_name,'\t',optimizer.state_dict()[var_name])print("\nprint particular param")
print('\n',model.conv1.weight.size())
print('\n',model.conv1.weight)

输出:

model's state_dict:
conv1.weight     torch.Size([6, 3, 5, 5])
conv1.bias   torch.Size([6])
conv2.weight     torch.Size([16, 6, 5, 5])
conv2.bias   torch.Size([16])
fc1.weight   torch.Size([120, 400])
fc1.bias     torch.Size([120])
fc2.weight   torch.Size([84, 120])
fc2.bias     torch.Size([84])
fc3.weight   torch.Size([10, 84])
fc3.bias     torch.Size([10])optimizer's state_dict
state    {}
param_groups     [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [139985995931368, 139984655959456, 139984655959600, 139984655959672, 139984655959744, 139984655959816, 139984655959888, 139984655959960, 139984655960032, 139984655960104]}]print particular paramtorch.Size([6, 3, 5, 5])Parameter containing:
tensor([[[[-0.0080, -0.0503,  0.0092, -0.1068, -0.0789],[-0.1028, -0.0067, -0.1015, -0.0660,  0.1107],[ 0.0733,  0.0195, -0.0236,  0.0244,  0.0168],[-0.0310, -0.0915,  0.0267, -0.0465, -0.0112],[-0.0876, -0.0579, -0.0689, -0.0397, -0.1020]],[[ 0.0148, -0.0605, -0.0428, -0.0280, -0.0038],[-0.0452,  0.0938,  0.0793, -0.0857,  0.0700],[-0.0463, -0.0326, -0.0130,  0.0460,  0.0138],[ 0.1144,  0.0173, -0.0178, -0.0745,  0.0625],[ 0.0713,  0.0400, -0.0596, -0.0878, -0.0773]],[[ 0.0782,  0.0849, -0.0777,  0.0770, -0.0115],[-0.0918, -0.0262,  0.0067,  0.0481,  0.0812],[ 0.0411, -0.1067,  0.0187,  0.0250,  0.0964],[ 0.0076,  0.0715, -0.0559,  0.0888, -0.0787],[-0.0894,  0.0258,  0.1001, -0.0621, -0.0245]]],[[[-0.0464, -0.0124, -0.0204, -0.0179,  0.0263],[ 0.1148,  0.0955, -0.0630,  0.0382, -0.0889],[ 0.1114,  0.0027, -0.0478, -0.0857, -0.0735],[ 0.0446,  0.0893, -0.0671,  0.0066, -0.0356],[-0.1027,  0.0593, -0.0410, -0.0647,  0.0377]],[[-0.0145,  0.0259, -0.0488, -0.1128, -0.0441],[-0.0269, -0.0213,  0.0958, -0.0159, -0.1011],[ 0.0614, -0.0445, -0.0642, -0.0092,  0.0317],[ 0.0399, -0.0608, -0.0156,  0.1112,  0.0865],[ 0.0679, -0.0030,  0.0948,  0.0804, -0.0644]],[[ 0.0625,  0.0002, -0.0690,  0.0803, -0.0091],[ 0.0073,  0.1063,  0.0663,  0.0094, -0.0997],[-0.0938,  0.0973, -0.0571, -0.0281, -0.0008],[ 0.0502, -0.0266, -0.0459, -0.0831,  0.0589],[ 0.1062,  0.0144,  0.0318,  0.0814,  0.0641]]],[[[ 0.0706,  0.0121, -0.0918,  0.0571, -0.0780],[ 0.0068,  0.0786, -0.0118,  0.0070,  0.0367],[-0.0983, -0.0742,  0.0878,  0.1115, -0.0342],[ 0.0682, -0.1151,  0.0689, -0.1039, -0.0854],[-0.0185,  0.0474, -0.0282, -0.0707, -0.0105]],[[-0.0562,  0.0887,  0.0002,  0.0974,  0.1088],[-0.0568,  0.0291,  0.0522, -0.0791, -0.0136],[ 0.0480,  0.0764,  0.1015,  0.0315, -0.0715],[ 0.0078,  0.1052,  0.0647, -0.0707, -0.0269],[-0.0742,  0.1057,  0.0410,  0.0867, -0.0098]],[[-0.0847,  0.0005,  0.0210,  0.1104, -0.0865],[ 0.0424, -0.0321, -0.0856,  0.0761, -0.1053],[-0.0995,  0.0792,  0.0428,  0.0239,  0.0532],[-0.0705,  0.0683, -0.0691,  0.0287, -0.0657],[-0.0518, -0.0395,  0.0270,  0.0997, -0.0581]]],[[[ 0.0071,  0.1119,  0.0198,  0.0697,  0.0853],[-0.0718, -0.0216, -0.0026,  0.0939,  0.0791],[ 0.0584, -0.0262,  0.0226,  0.0166, -0.0898],[ 0.1004, -0.0992,  0.0630,  0.0591,  0.0152],[-0.0731, -0.0343,  0.0821,  0.0518, -0.0257]],[[-0.0847,  0.1124, -0.0815, -0.0989,  0.0975],[ 0.0750, -0.0998, -0.0341,  0.0603,  0.0299],[ 0.0504, -0.0782, -0.0870,  0.0940, -0.0717],[-0.0387,  0.1046, -0.0216,  0.0870, -0.0550],[-0.0772,  0.0888,  0.0341,  0.0018,  0.0923]],[[-0.0257, -0.0024, -0.0461,  0.0309, -0.0204],[ 0.0782, -0.1152, -0.1073, -0.0128, -0.1088],[ 0.0238,  0.0951, -0.1048,  0.1055,  0.1090],[ 0.0984, -0.0634,  0.0864,  0.1067, -0.1024],[-0.0499,  0.1054,  0.0025, -0.0640, -0.0089]]],[[[-0.0263,  0.0849, -0.0872, -0.0457, -0.1010],[-0.0327,  0.0176, -0.0301,  0.0329,  0.0561],[-0.0325,  0.0409, -0.0862,  0.0603, -0.0904],[-0.0352,  0.0723,  0.0955, -0.0478, -0.1055],[-0.0711, -0.0076, -0.0725, -0.0856,  0.0413]],[[ 0.0999, -0.0613, -0.0390, -0.1126,  0.0182],[ 0.0302,  0.0699,  0.0263,  0.0594,  0.0965],[-0.0062,  0.0779,  0.0010,  0.0617,  0.0596],[ 0.0058, -0.0344,  0.0266, -0.0754, -0.0667],[ 0.0120,  0.1121, -0.0693,  0.0516,  0.0863]],[[-0.0897, -0.0838, -0.0126,  0.0938,  0.0570],[ 0.0729,  0.0482,  0.0066,  0.0559, -0.0951],[ 0.0750,  0.0592,  0.0550,  0.0671,  0.0661],[-0.1132, -0.0496, -0.0931,  0.0659, -0.0453],[ 0.0177,  0.0018,  0.0622,  0.0571,  0.1092]]],[[[ 0.0697,  0.0629,  0.0071,  0.0266,  0.0199],[-0.1087,  0.1084,  0.0488, -0.0162,  0.1147],[-0.0944, -0.1005, -0.0494,  0.0163, -0.0477],[ 0.0199, -0.0245,  0.0768, -0.0319, -0.0087],[ 0.0823,  0.1125, -0.0000, -0.0238, -0.0647]],[[ 0.0107, -0.0313, -0.0060,  0.0010,  0.0102],[-0.0748,  0.0240, -0.0658, -0.0524,  0.0908],[-0.0921, -0.1004, -0.0492,  0.0021,  0.0020],[-0.1136,  0.0122,  0.0324,  0.0125,  0.0843],[-0.0888,  0.0573,  0.0286,  0.0672,  0.0266]],[[-0.0215, -0.0275, -0.0994,  0.1052,  0.1087],[ 0.0008, -0.1082, -0.0890,  0.0155,  0.0612],[ 0.0211,  0.0042, -0.0483,  0.0919, -0.1100],[-0.0703, -0.0263, -0.0256, -0.0122, -0.0594],[-0.0150, -0.0508, -0.0393, -0.1073,  0.0849]]]],requires_grad=True)

参考:https://pytorch.org/docs/stable/nn.html#conv2d

https://pytorch.org/tutorials/beginner/saving_loading_models.html

torch.nn.Conv2d相关推荐

  1. PyTorch 笔记(20)— torchvision 的 datasets、transforms 数据预览和加载、模型搭建(torch.nn.Conv2d/MaxPool2d/Dropout)

    计算机视觉是深度学习中最重要的一类应用,为了方便研究者使用,PyTorch 团队专门开发了一个视觉工具包torchvision,这个包独立于 PyTorch,需通过 pip instal torchv ...

  2. pytorch 笔记:torch.nn.Conv2d

    1 基本用法 torch.nn,Conv2d(in_channels, out_channels, kernel_size, stride=1,padding=0, dilation=1, group ...

  3. conv2d的输入_pytorch1.0中torch.nn.Conv2d用法详解

    Conv2d的简单使用 torch 包 nn 中 Conv2d 的用法与 tensorflow 中类似,但不完全一样. 在 torch 中,Conv2d 有几个基本的参数,分别是 in_channel ...

  4. torch.nn.Conv2d() 用法讲解

    本文是深度学习框架 pytorch 的API : torch.nn.Conv2d() 函数的用法.本博客介绍了 torch.nn.Conv2d() 各个参数的含义和用法,学会使用 pytorch 创建 ...

  5. pytorch之torch.nn.Conv2d()函数详解

    文章目录 一.官方文档介绍 二.torch.nn.Conv2d()函数详解 参数详解 参数dilation--扩张卷积(也叫空洞卷积) 参数groups--分组卷积 三.代码实例 一.官方文档介绍 官 ...

  6. torch.nn.Conv2d介绍

    文章目录 卷积的计算流程 常用参数介绍 输入输出的尺寸 代码 卷积的计算流程 N 是 batch_size C 是 channel,就是输入的维度,我们也可以认为是层数 H 是一层 map 的高 W ...

  7. 基于torch.nn.functional.conv2d实现CNN

    在我们之前的实验中,我们一直用torch.nn.Conv2D来实现卷积神经网络,但是torch.nn.Conv2D在实现中是以torch.nn.functional.conv2d为基础的,这两者的区别 ...

  8. [Pytorch]torch.nn.functional.conv2d与深度可分离卷积和标准卷积

    torch.nn.functional.conv2d与深度可分离卷积和标准卷积 前言 F.conv2d与nn.Conv2d F.conv2d 标准卷积考虑Batch的影响 深度可分离卷积 深度可分离卷 ...

  9. 一次将tensorflow中的tf.nn.conv2d优(re)雅(shape)的转化成torch.nn.F.conv2d的咸鱼操作

    写在前面 毕设勉强中-看了<A Capsule Network-based Embedding Model for Knowledge Graph Completion and Search P ...

最新文章

  1. 【摘录】GestureDector使用
  2. 项目开发总结:前端开发部分总结[兼容性、DOM操作、跨域等](持续更新)
  3. python tk下拉列表的state_Python tkinter之ComboBox(下拉框)的使用简介
  4. 如何查看keepalived版本号_Linux下Keepalived 安装与配置
  5. 编译实验(三)目标代码生成
  6. xenserver PXE安装系统错误的解决
  7. 一行命令 优化上传速度
  8. 删除某文件以外的文件
  9. paip.ikanalyzer 重加载词库的方法.
  10. 演示6:python音乐下载器
  11. 家用电器插头插座外壳防冲击等级试验——IK摆锤冲击试验装置
  12. Python 办公自动化之 PDF 的详细操作(全)
  13. Bugku-网站被黑
  14. 酒店BI成就创业者管理升级
  15. 那一年马云34岁,李彦宏30岁,马化腾27岁
  16. VM虚拟机安装CentOS 7详解
  17. 怎样才能够修改PDF文件中的文字大小
  18. 内存的基础知识(常用数量单位、进程运行原理、存储单元、内存地址、绝对装入、静态重定位、动态重定位、静态链接、动态链接等)
  19. [zz] 音频DAC的原理
  20. 音频提取 4K YouTube to MP3

热门文章

  1. linux 文件夹换用户组,Linux-用户管理和用户组管理
  2. java junit 运行_运行Junit方法项目启动不了
  3. cpan安装_生信平台搭建(五):安装perl模块
  4. python爬取网页文本_手把手教你如何用Python爬取网站文本信息
  5. xp怎么删除计算机用户,WinXp系统如何删除用户账户?Xp系统删除用户账号的方法...
  6. html改为php报错,**PHP, 这段嵌入html的php代码为何第15、16、17行报错?**
  7. mysql查binlog删除时间_mysql的binlog日志删除查询
  8. 计算机硬件设计边界,基于JTAG的计算机硬件实验系统的设计与实现.pdf
  9. Python-Matplotlib可视化(6)——自定义坐标轴让统计图清晰易懂
  10. c# 中代替指针的功能_C中的功能指针