当使用pytorch写网络结构的时候,本人发现在卷积层与第一个全连接层的全连接层的input_features不知道该写多少?一开始本人的做法是对着pytorch官网的公式推,但是总是算错。

后来发现,写完卷积层后可以根据模拟神经网络的前向传播得出这个。

全连接层的input_features是多少。首先来看一下这个简单的网络。这个卷积的Sequential本人就不再啰嗦了,现在看nn.Linear(???, 4096)这个全连接层的第一个参数该为多少呢?请看下文详解。

class AlexNet(nn.Module):
    def __init__(self):
        super(AlexNet, self).__init__()

self.conv = nn.Sequential(
            nn.Conv2d(3, 96, kernel_size=11, stride=4),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=3, stride=2),

nn.Conv2d(96, 256, kernel_size=5, padding=2),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=3, stride=2),

nn.Conv2d(256, 384, kernel_size=3, padding=1),
            nn.ReLU(inplace=True),
            nn.Conv2d(384, 384, kernel_size=3, padding=1),
            nn.ReLU(inplace=True),
            nn.Conv2d(384, 256, kernel_size=3, padding=1),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=3, stride=2)
        )

self.fc = nn.Sequential(
            nn.Linear(???, 4096)
            ......
            ......
        )

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
        首先,我们先把forward写一下:

def forward(self, x):
        x = self.conv(x)
        print x.size()
1
2
3
        就写到这里就可以了。其次,我们初始化一下网络,随机一个输入:

import torch
from Alexnet.AlexNet import *
from torch.autograd import Variable

if __name__ == '__main__':
    net = AlexNet()

data_input = Variable(torch.randn([1, 3, 96, 96])) # 这里假设输入图片是96x96
    print data_input.size()
    net(data_input)
1
2
3
4
5
6
7
8
9
10
        结果如下:

(1L, 3L, 96L, 96L)
(1L, 256L, 1L, 1L)
1
2
        显而易见,咱们这个全连接层的input_features为256。
--------------------- 
作者:嘿芝麻 
来源:CSDN 
原文:https://blog.csdn.net/zw__chen/article/details/82839061 
版权声明:本文为博主原创文章,转载请附上博文链接!

pytorch神经网络之卷积层与全连接层参数的设置相关推荐

  1. 卷积神经网络---卷积层、激励层、池化层以及全连接层

    文章目录 概述 卷积神经网络 局部连接+权值共享** 输入层 卷积层 激励层 池化层 全连接层 参考资料 概述 这两天在看论文,涉及到卷积神经网络的知识,之前一直对这块迷迷糊糊.看到了一篇博文写的很好 ...

  2. Pytorch中卷积层转向全连接层时,全连接层输入维度的确定

    Pytorch中卷积层转向全连接层时,全连接层输入维度的确定 一.代码法: 改变的AlexNet网络结构: AlexNet 二.公式法: 一.代码法: 改变的AlexNet网络结构: 输入维度为 ( ...

  3. 卷积层和全连接层的区别_卷积神经网络中全连接层作用理解总结

    前言 一般来说,卷积神经网络会有三种类型的隐藏层--卷积层.池化层.全连接层.卷积层和池化层比较好理解,主要很多教程也会解释. •  卷积层(Convolutional layer)主要是用一个采样器 ...

  4. 卷积神经网络中卷积层、池化层、全连接层的作用

    1. 卷积层的作用 卷积层的作用是提取输入图片中的信息,这些信息被称为图像特征,这些特征是由图像中的每个像素通过组合或者独立的方式所体现,比如图片的纹理特征,颜色特征. 比如下面这张图片,蓝色框框住的 ...

  5. 对卷积神经网络中卷积层、激活层、池化层、全连接层的理解

    文章目录 卷积神经网络 输入层 卷积层 激励层 池化层 全连接层 卷积神经网络 举一个卷积神经网络识别汽车的例子如下: 其中数据输入的是一张图片(输入层),CONV表示卷积层,RELU表示激励层,PO ...

  6. “重参数宇宙”再添新成员:RepMLP,清华大学旷视科技提出将重参数卷积嵌入到全连接层

    编辑:Happy 首发:AIWalker paper: https://arxiv.org/abs/2105.01883 code: https://github.com/DingXiaoH/RepM ...

  7. 深度学习 卷积层与全连接层权重参数个数的计算

    1.卷积网络实例分析 构建卷积网络如下: from tensorflow.python.keras import datasets, models, layers class CNN(object): ...

  8. padding和卷积的区别_NiN:使用11卷积层替代全连接层

    微信公号:ilulaoshi, 原文发表在我的个人网站:https://lulaoshi.info/machine-learning/convolutional/nin.html LeNet.Alex ...

  9. 『Transformer』为什么1*1卷积可以替代全连接层?

    为什么1*1卷积可以替代全连接层? 起源 解决 参考 起源 事情起源于同学的一个疑惑,他在阅读Transformer论文时,看到作者在前馈神经网络部分写有这么一句话: Another way of d ...

最新文章

  1. 2.aop中几个注解的含义
  2. Spring MVC Controller 要点
  3. 用perl访问Oracle
  4. 中国电力环保设备行业十四五发展形势与投资机会分析报告2022版
  5. C宏定义中的##,#,#@用法介绍
  6. Manager使用介绍
  7. 开源通用爬虫框架YayCrawler-页面的抽取规则定义
  8. 前端直播与SRS视频流服务的使用
  9. numpy 创建数组
  10. php指定时间 n天,PHP实现指定时间的n月之前的这一天的两种算法
  11. Unity 在windows10上资源默认下载的路径
  12. 使用excel绘制统计分布表(T分布表)
  13. win7 计算机刷新dns,刷新dns,教您怎么刷新DNS
  14. 如何有效预防宕机?你需要掌握这4个方法
  15. 计算机桌面怎样创建文件,如何在电脑桌面新建一个透明文件夹
  16. 存储器类型与S3C2440启动地址
  17. 多款比较好用又免费的设计工具
  18. 深入解析Tensor索引中的Indexing Multi-dimensional arrays问题
  19. VUE+ElementUI+SheetJS解析Excel
  20. 【电力系统】基于凸松弛算法的电力市场策略(Matlab代码实现)

热门文章

  1. java list_Java集合-List
  2. 舞伴问题数据结构java_Gale-Shapley算法解决舞伴问题过程详解(C++实现)
  3. 换系统后mysql环境不见了_电脑重装系统后如何恢复Mysql数据库
  4. spi的dma方式前四个字节_UTF-16是固定两个字节长度吗?
  5. 【c语言】蓝桥杯算法提高 温度转换
  6. 参加第二届中国网络营销行业大会会议记录
  7. .Net 转战 Android 4.4 日常笔记(7)--apk的打包与反编译
  8. 安卓安装完应用后,如何获取包的meta-inf目录下的文件?
  9. mysql mairadb skysql
  10. [ruby] wxRuby安装