[十三]深度学习Pytorch-卷积层(1D/2D/3D卷积、卷积nn.Conv2d、转置卷积nn.ConvTranspose)
0. 往期内容
[一]深度学习Pytorch-张量定义与张量创建
[二]深度学习Pytorch-张量的操作:拼接、切分、索引和变换
[三]深度学习Pytorch-张量数学运算
[四]深度学习Pytorch-线性回归
[五]深度学习Pytorch-计算图与动态图机制
[六]深度学习Pytorch-autograd与逻辑回归
[七]深度学习Pytorch-DataLoader与Dataset(含人民币二分类实战)
[八]深度学习Pytorch-图像预处理transforms
[九]深度学习Pytorch-transforms图像增强(剪裁、翻转、旋转)
[十]深度学习Pytorch-transforms图像操作及自定义方法
[十一]深度学习Pytorch-模型创建与nn.Module
[十二]深度学习Pytorch-模型容器与AlexNet构建
[十三]深度学习Pytorch-卷积层(1D/2D/3D卷积、卷积nn.Conv2d、转置卷积nn.ConvTranspose)
深度学习Pytorch-卷积层
- 0. 往期内容
- 1. 1D/2D/3D卷积
- 2. nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros')
- 3. 转置卷积
- 3.1 转置卷积定义
- 3.2 nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode='zeros')
- 4. 完整代码
1. 1D/2D/3D卷积
一个卷积核在一个信号上是几维它是几维卷积。
2. nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode=‘zeros’)
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)
(1)功能:对多个二维
信号进行二维
卷积;
(2)参数:
in_channels
: 输入通道数;
out_channels
: 输出通道数,等于卷积核的个数;
kernel_size
: 卷积核的尺寸;
stride
: 步长,stride
步长是滑动时滑动几个像素;
padding
: 填充个数,保证输入和输出图像在尺寸上是匹配的;
左边:未加padding,输入44,输出22;
右边:加了padding,输入55,输出55.
dilation
: 空洞卷积的大小;
空洞卷积常用于分割任务,主要用于提升感受野,即输出图像一个像素能够看到输入图像更大的区域。
groups
: 分组卷积设置;
groups用于设置分组卷积的组数,常用于模型的轻量化。
Alexnet也是分组卷积,原因是受制于硬件,因为它用了两个GPU进行训练。
bias
: 偏置;
(3)代码示例:
set_seed(3) # 设置随机种子# ================================= load img ==================================
path_img = os.path.join(os.path.dirname(os.path.abspath(__file__)), "lena.png")
img = Image.open(path_img).convert('RGB') # 0~255 RGB# convert to tensor 张量
img_transform = transforms.Compose([transforms.ToTensor()])
img_tensor = img_transform(img)
# C*H*W to B*C*H*W 扩展成四维,增加batchsize维度
img_tensor.unsqueeze_(dim=0) # ================================= create convolution layer ==================================# ================ 2d
flag = 1
# flag = 0
if flag:#图像是RGB具有三个通道,因此in_channels=3,设置一个卷积核来观察out_channels=1,卷积核为3*3conv_layer = nn.Conv2d(3, 1, 3) # (in_channels, out_channels, 卷积核size) #初始化#weights:[1,3,3,3]=(out_channels, in_channels , h, w) h,w是二维卷积核的尺寸nn.init.xavier_normal_(conv_layer.weight.data)# calculationimg_conv = conv_layer(img_tensor)# ================================= visualization ==================================
print("卷积前尺寸:{}\n卷积后尺寸:{}".format(img_tensor.shape, img_conv.shape))
img_conv = transform_invert(img_conv[0, 0:1, ...], img_transform)
img_raw = transform_invert(img_tensor.squeeze(), img_transform)
plt.subplot(122).imshow(img_conv, cmap='gray')
plt.subplot(121).imshow(img_raw)
plt.show()
虽然是三维卷积核(3个通道33),但是每一个卷积核在一个信号中是二维滑动,因此是二维卷积。
3. 转置卷积
3.1 转置卷积定义
转置卷积通常用于图像分割。
首先,将输入图像4*4
拉成16*1
的向量,其中16
是4*4
所有的像素;1
是1
张图片。
然后,卷积核3*3
会变成4*16
的矩阵,其中16
是3*3=9
个权值通过补0
得到16
个数;,4
是根据图像尺寸、padding、stride、dilation
等计算得到的输出图像中像素的总个数(右图中绿色一共四个)。
最后,卷积核矩阵乘以图像矩阵得到4*1
,然后再reshape
为2*2
的输出特征图。
首先,将输入图像2*2
拉成4*1
的向量,其中4
是2*2=4
得到的输入图像中所有像素的个数,1
是1
张图片。
然后,卷积核3*3
会变成16*4
的矩阵,其中4
是3*3=9
中剔除多余的剩下的4
个,16
是根据图像尺寸、padding、stride、dilation
等计算得到的输出图像中像素的总个数(右上图中绿色一共4*4=16
个)。
最后,卷积核矩阵乘以图像矩阵得到16*1
,然后再reshape
为4*4
的输出特征图。
3.2 nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode=‘zeros’)
nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode='zeros', device=None, dtype=None)
(1)功能:转置卷积实现上采样;
(2)参数:同上;
(3)代码示例:
set_seed(3) # 设置随机种子# ================================= load img ==================================
path_img = os.path.join(os.path.dirname(os.path.abspath(__file__)), "lena.png")
img = Image.open(path_img).convert('RGB') # 0~255 RGB# convert to tensor 张量
img_transform = transforms.Compose([transforms.ToTensor()])
img_tensor = img_transform(img)
# C*H*W to B*C*H*W 扩展成四维,增加batchsize维度
img_tensor.unsqueeze_(dim=0) # ================================= create convolution layer ==================================# ================ ConvTranspose2d
flag = 1
if flag:conv_layer = nn.ConvTranspose2d(3, 1, 3, stride=2) #(in_channels, out_channels, 卷积核size) nn.init.xavier_normal_(conv_layer.weight.data)# calculationimg_conv = conv_layer(img_tensor)# ================================= visualization ==================================
print("卷积前尺寸:{}\n卷积后尺寸:{}".format(img_tensor.shape, img_conv.shape))
img_conv = transform_invert(img_conv[0, 0:1, ...], img_transform)
img_raw = transform_invert(img_tensor.squeeze(), img_transform)
plt.subplot(122).imshow(img_conv, cmap='gray')
plt.subplot(121).imshow(img_raw)
plt.show()
转置卷积后图像变得像棋盘一样,叫棋盘效应。
(512-1)*2+3=1025
4. 完整代码
nn_layers_convolution.py:
# -*- coding: utf-8 -*-
"""
# @file name : nn_layers_convolution.py
# @brief : 学习卷积层
"""
import os
import torch.nn as nn
from PIL import Image
from torchvision import transforms
from matplotlib import pyplot as plt
from tools.common_tools import transform_invert, set_seedset_seed(3) # 设置随机种子# ================================= load img ==================================
path_img = os.path.join(os.path.dirname(os.path.abspath(__file__)), "lena.png")
img = Image.open(path_img).convert('RGB') # 0~255 RGB# convert to tensor 张量
img_transform = transforms.Compose([transforms.ToTensor()])
img_tensor = img_transform(img)
# C*H*W to B*C*H*W 扩展成四维,增加batchsize维度
img_tensor.unsqueeze_(dim=0) # ================================= create convolution layer ==================================# ================ 2d
flag = 1
# flag = 0
if flag:#图像是RGB具有三个通道,因此in_channels=3,设置一个卷积核来观察out_channels=1,卷积核为3*3conv_layer = nn.Conv2d(3, 1, 3) # (in_channels, out_channels, 卷积核size) #初始化#weights:[1,3,3,3]=(out_channels, in_channels , h, w) h,w是二维卷积核的尺寸nn.init.xavier_normal_(conv_layer.weight.data)# calculationimg_conv = conv_layer(img_tensor)# ================ transposed
# flag = 1
flag = 0
if flag:conv_layer = nn.ConvTranspose2d(3, 1, 3, stride=2) #(in_channels, out_channels, 卷积核size) nn.init.xavier_normal_(conv_layer.weight.data)# calculationimg_conv = conv_layer(img_tensor)# ================================= visualization ==================================
print("卷积前尺寸:{}\n卷积后尺寸:{}".format(img_tensor.shape, img_conv.shape))
img_conv = transform_invert(img_conv[0, 0:1, ...], img_transform)
img_raw = transform_invert(img_tensor.squeeze(), img_transform)
plt.subplot(122).imshow(img_conv, cmap='gray')
plt.subplot(121).imshow(img_raw)
plt.show()
[十三]深度学习Pytorch-卷积层(1D/2D/3D卷积、卷积nn.Conv2d、转置卷积nn.ConvTranspose)相关推荐
- 1D/2D/3D卷积详解
目录 概述 1D卷积 2D卷积 3D卷积 概述 1D/2D/3D卷积计算方式都是一样的,其中2D卷积应用范围最广.与全连接层相比,卷积层的主要优点是参数共享和稀疏连接,这使得卷积操作所需要学习的参数数 ...
- 【动手学深度学习PyTorch版】12 卷积层
上一篇移步[动手学深度学习PyTorch版]11 使用GPU_水w的博客-CSDN博客 目录 一.卷积层 1.1从全连接到卷积 ◼ 回顾单隐藏层MLP ◼ Waldo在哪里? ◼ 原则1-平移不变性 ...
- 【动手学深度学习PyTorch版】13 卷积层的填充和步幅
上一篇移步[动手学深度学习PyTorch版]12 卷积层_水w的博客-CSDN博客 目录 一.卷积层的填充和步幅 1.1 填充 1.2 步幅 1.3 总结 二.代码实现填充和步幅(使用框架) 一.卷积 ...
- 【 卷积神经网络CNN 数学原理分析与源码详解 深度学习 Pytorch笔记 B站刘二大人(9/10)】
卷积神经网络CNN 数学原理分析与源码详解 深度学习 Pytorch笔记 B站刘二大人(9/10) 本章主要进行卷积神经网络的相关数学原理和pytorch的对应模块进行推导分析 代码也是通过demo实 ...
- 【卷积神经网络CNN 实战案例 GoogleNet 实现手写数字识别 源码详解 深度学习 Pytorch笔记 B站刘二大人 (9.5/10)】
卷积神经网络CNN 实战案例 GoogleNet 实现手写数字识别 源码详解 深度学习 Pytorch笔记 B站刘二大人 (9.5/10) 在上一章已经完成了卷积神经网络的结构分析,并通过各个模块理解 ...
- 【动手学深度学习PyTorch版】15 池化层
上一篇请移步[动手学深度学习PyTorch版]14 卷积层里的多输入多输出通道_水w的博客-CSDN博客 目录 一.池化层 1.1 池化层 ◼池化层原因 ◼ 二维最大池化 1.2 填充.步幅与多个通道 ...
- 动手学深度学习(PyTorch实现)(六)--卷积神经网络基础
卷积神经网络基础 1. 二维卷积层 1.1 二维互相关运算 1.2 互相关运算与卷积运算 1.3 特征图与感受野 2. 填充与步幅 2.1 填充 2.2 步幅 3. 多通道 3.1 多输入通道 3.2 ...
- 卷积层(1D,2D,3D..反卷积)
文章目录 1d/2d/3d卷积 卷积-nn.Conv2d() 尺寸计算 转置卷积-nn.ConvTranspose nn.ConvTranspose代码 尺寸计算 1d/2d/3d卷积 卷积运算:卷积 ...
- 深度学习Pytorch框架
深度学习Pytorch框架 文章目录 深度学习Pytorch框架 前言 1. Pytorch命令之``nn.Sequential`` 2. Pytorch命令之``nn.Conv2d`` 3. Pyt ...
最新文章
- Java数据结构与算法(25) - ch11哈希(双重哈希)
- 意想不到的有趣linux命令
- 【机器学习基础】(五):通俗易懂决策树与随机森林及代码实践
- 论文浅尝 - ACL2020 | 用于回答知识库中的多跳复杂问题的查询图生成方法
- 九阴真经 服务器 显示维护,《九阴真经》1月29日服务器互通升级维护公告
- python真的是吹过了-别再无脑吹了,python和matleb有什么不同你知道吗?
- YT88 USB 加密狗 使用方法(一)加壳
- java 验证码点击刷新,java验证码及其刷新
- 商业模式画布 - 天涯的日志 - 网易博客
- aws ssh 证书配置_在AWS Lambda中运行netflix bless ssh证书颁发机构
- 站在知乎肩上-做更强的自己(4)
- 使用 SharePoint 2007 进行安全性编程(SPUser,SPGroup,SPSiteGroups)
- iOS15适配本地通知功能
- SSM+流浪动物救助系统 毕业设计-附源码191631
- Python之ffmpeg:利用python编程基于ffmpeg将m4a格式音频文件转为mp3格式文件
- 软件测试之项目实战,必须知道的事与测试面试项目测试流程......
- linux中oracle导出dmp,linux下导入导出oracle的dmp文件
- 那些可以加速国内外开源库的免费CDN
- 如何在家远程控制公司的电脑,高效便捷的远程办公?
- python_习题四