多层感知机

正式总结卷积层之前,先把上次多层感知机落下的一点内容补一补。

几个概念:

训练数据集:训练模型参数。

验证数据集:选择模型超参数。

训练误差:模型在训练数据上的误差。

泛化误差:模型在新数据上的误差。

结论:

非大数据集上通常使用k-折交叉验证。

权重衰退通过L2正则项使得模型参数不会过大,从而控制模型复杂度。

正则项权重是控制模型复杂度的超参数。

让训练更稳定的方法:

让梯度在合理的范围

将乘法变加法。

归一化。

合理的权重初始和激活函数。

卷积层

二维卷积层

输入X,卷积核W,输出Y=X*W+b,w和b是可学习的参数

一维和三维交叉相关

一维:

比如说,文本,语言,时间序列。

三维:

比如说视频,医学影像,气象地图。

卷积层将输入和核矩阵进行交叉相关,加上偏移后得到输出。

核矩阵和偏移是可学习的参数。

核矩阵的大小是超参数。

互相关运算(卷积层)代码实现:

import torch
from torch import nn
from d2l import torch as d2ldef corr2d(X, K):# 计算二维互相关运算h, w = K.shapeY = torch.zeros((X.shape[0] - h + 1, X.shape[1] - w + 1))for i in range(Y.shape[0]):for j in range(Y.shape[1]):Y[i, j] = (X[i:i + h, j:j + w] * K).sum()return YX = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])
K = torch.tensor([[0.0, 1.0], [2.0, 3.0]])
print(corr2d(X, K))
tensor([[19., 25.],[37., 43.]])

实现二维卷积层(检测图像中不同颜色的边缘)

class Conv2D(nn.Module):def __int__(self,kernel_size):super().__int__()self.weight=nn.Parameter(torch.range(kernel_size))self.bias=nn.Parameter(torch.zeros(1))def forward(self,x):return corr2d(x,self.weight)+self.biasX=torch.ones((6,8))
X[:,2:6]=0
print(X)K=torch.tensor([[1.0,-1.0]])
Y=corr2d(X, K)
print(Y)#卷积核k只可以检测垂直边缘
print(corr2d(X.t(),K))
tensor([[1., 1., 0., 0., 0., 0., 1., 1.],[1., 1., 0., 0., 0., 0., 1., 1.],[1., 1., 0., 0., 0., 0., 1., 1.],[1., 1., 0., 0., 0., 0., 1., 1.],[1., 1., 0., 0., 0., 0., 1., 1.],[1., 1., 0., 0., 0., 0., 1., 1.]])
tensor([[ 0.,  1.,  0.,  0.,  0., -1.,  0.],[ 0.,  1.,  0.,  0.,  0., -1.,  0.],[ 0.,  1.,  0.,  0.,  0., -1.,  0.],[ 0.,  1.,  0.,  0.,  0., -1.,  0.],[ 0.,  1.,  0.,  0.,  0., -1.,  0.],[ 0.,  1.,  0.,  0.,  0., -1.,  0.]])
tensor([[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.],[0., 0., 0., 0., 0.]])

学习由X生成Y的卷积核

conv2d=nn.Conv2d(1,1,kernel_size=(1,2),bias=False)
X=X.reshape((1,1,6,8))
Y=Y.reshape((1,1,6,7))
for i in range(10):Y_hat=conv2d(X)l=(Y_hat-Y)**2conv2d.zero_grad()l.sum().backward()conv2d.weight.data[:]-=3e-2*conv2d.weight.gradif(i+1)%2==0:print(f'batch {i+1},loss{l.sum():.3f}')# 所学的卷积核的权重张量
print(conv2d.weight.data.reshape((1,2)))
batch 2,loss11.545
batch 4,loss4.023
batch 6,loss1.530
batch 8,loss0.607
batch 10,loss0.245
tensor([[ 1.0442, -0.9339]])

填充和步幅

填充就是在输入周围添加额外的行/列,填充减小的输出大小与层数线性相关

步幅是指行/列的滑动步长

填充和步幅是卷积层的超参数。

填充在输入周围添加额外的行/列,来控制输出形状的减少量。

步幅是每次滑动核窗口时的行/列的步长,可以成倍的减少输出形状。

在所有侧边填充1个像素

def comp_conv2d(conv2d,X):X=X.reshape((1,1)+X.shape)Y=conv2d(X)return  Y.reshape(Y.shape[2:])conv2d=nn.Conv2d(1,1,kernel_size=3,padding=1)
X=torch.rand(size=(8,8))
print(comp_conv2d(conv2d,X).shape)#填充不同的高度和宽度
conv2d=nn.Conv2d(1,1,kernel_size=(5,3),padding=(2,1))
print(comp_conv2d(conv2d,X).shape)
torch.Size([8, 8])
torch.Size([8, 8])

将高度和宽度的步幅设置为2

conv2d=nn.Conv2d(1,1,kernel_size=3,padding=1,stride=2)
print(comp_conv2d(conv2d,X).shape)
torch.Size([4, 4])

一个稍微复杂的例子

conv2d=nn.Conv2d(1,1,kernel_size=(3,5),padding=(0,1),stride=(3,4))
print(comp_conv2d(conv2d,X).shape)
torch.Size([2, 2])

卷积层、卷积层里的填充和步幅相关推荐

  1. 卷积层里的填充和步幅

    填充 当图片大小不大,但是想用更深的卷积层,就需要用到填充. 可以在输入的四周加入二外的行活列,使输入变得更大: 步幅 总的来说,填充和步幅是卷积层的超参数,填充在输入周围添加额外的行/列,来控制输出 ...

  2. 动手学深度学习——卷积层里的填充和步幅

    1.填充 填充( padding )是指在输⼊⾼和宽的两侧填充元素(通常是 0 元素). 给定(32x32)输入图像: 应用5x5大小的卷积核,第一层得到输出大小28x28,第七层得到输出大小4x4: ...

  3. 39_上下采样、MaxPool2d、AvgPool2d、ReLU案例、二维最大池化层和平均池化层、填充和步幅、多通道

    1.34.PyTorch Down/up sample (pytorch上下采样) 1.34.1. 首先介绍下采样 1.34.1.1. MaxPool2d案例 1.34.1.2. AvgPool2d案 ...

  4. 34. 池化层 / 汇聚层

    1. 池化层 如果我们拍摄黑白之间轮廓清晰的图像X,并将整个图像向右移动一个像素,即Z[i, j] = X[i, j + 1],则新图像Z的输出可能大不相同.而在现实中,随着拍摄角度的移动,任何物体几 ...

  5. Pytorch填充、步幅及多通道输入输出的理论分析及代码实现

    填充和步幅 卷积核带来的问题-输入形状不断减小 更大的卷积核可以更快的减小输出大小 形状从 n h ∗ n w n_h * n_w nh​∗nw​减少到 ( n h − k h + 1 ) ∗ ( n ...

  6. 深度学习——卷积层+填充和步幅(笔记)

    一 卷积层 1.了解二维交叉相关:具体做法是 对应数字 相乘后相加 Output具体的运算过程: 2.二维卷积层 * ①输入X:    (输入高为h,宽为w的矩阵)  如3*3 ②卷积核W:   ③偏 ...

  7. 【动手学深度学习PyTorch版】13 卷积层的填充和步幅

    上一篇移步[动手学深度学习PyTorch版]12 卷积层_水w的博客-CSDN博客 目录 一.卷积层的填充和步幅 1.1 填充 1.2 步幅 1.3 总结 二.代码实现填充和步幅(使用框架) 一.卷积 ...

  8. TensorFlow精进之路(三):两层卷积神经网络模型将MNIST未识别对的图片筛选出来

    1.概述 自从开了专栏<TensorFlow精进之路>关于对TensorFlow的整理思路更加清晰.上两篇讲到Softmax回归模型和两层卷积神经网络模型训练MNIST,虽然使用神经网络能 ...

  9. Lesson 16.1016.1116.1216.13 卷积层的参数量计算,1x1卷积核分组卷积与深度可分离卷积全连接层 nn.Sequential全局平均池化,NiN网络复现

    二 架构对参数量/计算量的影响 在自建架构的时候,除了模型效果之外,我们还需要关注模型整体的计算效率.深度学习模型天生就需要大量数据进行训练,因此每次训练中的参数量和计算量就格外关键,因此在设计卷积网 ...

最新文章

  1. Firefox 50优化Electrolysis
  2. java最长类名_在java规范中类命名的字符长度是多少?
  3. MySQL双主配置步骤
  4. 推荐一个牛逼的 GitHub 项目+支付宝、微信支付项目实战!快来获取!
  5. hihocder 1181 : 欧拉路·二
  6. js中的字符长度问题
  7. eclipse中svn的各种状态图标详解
  8. c#执行多句oracle,C#一次执行多条SQL语句,Oracle11g数据库
  9. uniapp 发布网站遇到的问题(跨域,nginx代理失败,index无法打开,手机端无法访问等)
  10. matlab 温度计,Matlab与Excel相结合实现标准铂电阻温度计检定数据处理
  11. Android FrameWork(AMS,WMS,PMS等)的概念及解析,获取系统服务
  12. Office快捷键大全之一(Word快捷键)
  13. echart水滴_用echarts实现水滴图效果
  14. css属性visibility:unset
  15. 曼哈顿距离和欧氏距离
  16. 数学建模|图与网络模型
  17. 司法机关视频监控及综合安防系统建设方案
  18. allegro封装导出(1):立创商城
  19. 解决eclipse上没有serve
  20. Unity_Shader中级篇_11_Unity Shader入门精要

热门文章

  1. 快播王欣的马桶 MT 刚面世就被微信“封杀”
  2. Blender 导出FBX到Unity
  3. 欧路词典可以支持MDict的词典
  4. GBase 8c AMT 依赖关系选项
  5. 如何将mysql表结构导出成Excel格式的(并带备注)
  6. Web应用安全ppt大纲
  7. java项目部署方案模板_JavaWeb项目部署指南
  8. 音频文件PCM、WAV、MP3的区别以及文件合并
  9. 【负权图网络流】JZOJ6169.【GDSOI 2019 day1】棋盘
  10. linux怎么设置桌面朝向,Android判断相机图片朝向