1.矩阵相乘神经网络

参考:

https://blog.csdn.net/machinerandy/article/details/79632748#commentBox

但对上文中最后一句“并且对于最终全连接的单输出节点 YY 得到的结果也由 Y1×10→Y10×1Y1×10→Y10×1。 ”,持保留意见。

tensorflow中,使用的代码是output = tf.matmul(inputs,W) + b,对应的公式是y = X*W + b

输入变量X的shape是[样本数,单个样本的特征数]。特征数也是输入层神经元的个数。第(1,2)层(第1层指输入层,第2层指第一个hidden层)的W的shape是[第1层神经元个数,第2层神经元个数]。b的shape是[第2层神经元个数]。(b是加在第2层神经元上的偏置,是一维向量)。

所以第(i,i+1)层,输入的shape是[样本数,第i层的神经元的个数],W的shape是[第i层神经元个数,第i+1层神经元个数],b的shape是[第i+1层神经元个数],输出的shape是[样本数,第i+1层神经元个数]。

输入数据 [samples,输入特征数]
W [输入特征数,输出特征数]
b [输出特征数]
输出数据 [samples,输出特征数]

2.卷积神经网络

输入数据 [samples,height,width,channels]
W [卷积核的height,卷积核的width,in_channels,out_channels]Ps:卷积核一般表示为 卷积核height*卷积核width*卷积核深度。卷积核深度in_channels 与 需要进行卷积操作的数据的 channels 一致。参数out_channels = 卷积核个数。也就是希望输出多少个特征图。此时的 out_channels 也会作为下一次卷积时的卷积核的 in_channels。
b [out_channels]
输出数据[samples,new_height,new_width,out_channels]Ps:卷积处理多通道的情况时,将卷积核也变成多通道。通道间参数独立。输出是将各个通道叠加。Ps: new_height,new_width的计算分padding为valid还是same两种情况:

参考:https://blog.csdn.net/wuzqchom/article/details/74785643#commentBox

卷积或者池化之后,输出size(即图形长宽)的计算公式:

关于神经网络中的shape问题相关推荐

  1. 【TensorFlow】——不同shape的tensor在神经网络中的应用(scalar,vector,matrix)

    目录 ​ 1.scalar--标量 1)在神经网络中存在的场景 2)one_hot编码 3)举例应用 2.vector--向量 ​ 3.matrixs--矩阵 4.dim=3的tensor 5.dim ...

  2. 神经网络中的「注意力」是什么?怎么用?

    来源:转载自公众号「雷克世界」微信号:ROBO_AI 编译:嗯~阿童木呀.多啦A亮 概要:神经网络中的注意力机制(Attention mechanisms),也被称为"神经注意力" ...

  3. softmax ce loss_神经网络中的蒸馏技术,从Softmax开始说起

    作者:Sayak Paul 编译:ronghuaiyang 导读 从各个层次给大家讲解模型的知识蒸馏的相关内容,并通过实际的代码给大家进行演示. 本报告讨论了非常厉害模型优化技术 -- 知识蒸馏,并给 ...

  4. 【深度学习】神经网络中的蒸馏技术,从Softmax开始说起

    作者:Sayak Paul      编译:ronghuaiyang 导读 从各个层次给大家讲解模型的知识蒸馏的相关内容,并通过实际的代码给大家进行演示. 本报告讨论了非常厉害模型优化技术 -- 知识 ...

  5. xml文件 卷积神经网络_理解卷积神经网络中的输入与输出形状(Keras实现)

    即使我们从理论上理解了卷积神经网络,在实际进行将数据拟合到网络时,很多人仍然对其网络的输入和输出形状(shape)感到困惑.本文章将帮助你理解卷积神经网络的输入和输出形状. 让我们看看一个例子.CNN ...

  6. 神经网络中的 Dropout 以及变体方法

    Dropout 的学习笔记,主要参考文章: 12种主要的Dropout方法:如何应用于DNNs,CNNs,RNNs中的数学和可视化解释 [科普]神经网络中的随机失活方法 1. 简介 深度学习训练模型的 ...

  7. (pytorch-深度学习系列)卷积神经网络中的填充(padding)和步幅(stride)

    卷积神经网络中的填充(padding)和步幅(stride) 之前写过一篇blog,描述CNN网络层的输入和输入尺寸的计算关系,但是并没有描述的很全面,这里全面描述了影响输出尺寸的两个超参数paddi ...

  8. 卷积神经网络中卷积的作用与原理

    目录 前言 卷积的作用 卷积的参数 卷积核大小(kernel_size) 填充(padding) same valid full 卷积核算子(operator) Robert 算子 Prewitt算子 ...

  9. Tensor (张量) - 神经网络中的数据结构

    Tensor (张量) - 神经网络中的数据结构 Tensor - Data Representation in Neural Networks Tensors are the fundamental ...

  10. (tensorflow笔记)神经网络中的一些关键概念(学习率、激活函数、损失函数、欠拟合和过拟合、正则化和优化器)

    目录 1.神经网络复杂度 空间复杂度 时间复杂度 2.学习率策略 指数衰减学习率 分段常数衰减 3.激活函数 sigmoid tanh ReLU Leaky ReLU 建议 4.损失函数 均方误差损失 ...

最新文章

  1. 不容错过的灰度发布系统架构设计
  2. 一起谈.NET技术,ASP.NET Eval如何进行数据绑定
  3. 哪些编程语言需要修复?
  4. RHEL7 yum安装配置LAMP(Apache+PHP+MySql)服务器
  5. java的四种引用类型_你知道Java的四种引用类型吗?
  6. java 正则表达式使用_如何用正则表达式杀死Java
  7. spring MVC 的MultipartFile转File读取
  8. Taro+react开发(94):问答模块01
  9. Tekton基础概念介绍
  10. rust投递箱连接箱子_拆了的快递包装丢哪里?闵行试行24小时开放的网购包装回收箱...
  11. 个位数统计(java)
  12. linux 邮件文件名 病毒,linux-qmail 病毒/垃圾邮件处理
  13. 微信小说小程序源码-自带采集带安装教程
  14. 猫哥教你写爬虫 040--存储数据-作业
  15. java web服务_如何用Java实现Web服务器
  16. (译)对词向量化的直观理解:从计数向量到Word2Vec
  17. 如何在计算机查找类型文件类型,怎样在电脑中查找某一类型文件?比如查 txt...
  18. 男孩子学医好还是学计算机好,男孩子学医选什么专业好 最有前景的医学类专业...
  19. Win11 解决 资源管理器和右键问题
  20. git切换分支、push或pull指定分支

热门文章

  1. python 重定向 网址错_Python URL重定向问题
  2. 《千与千寻》告诉产品经理什么?
  3. 寻中华文化之根 承抗战先烈之志
  4. 汇编——dosbox的debug常用指令
  5. BitCoin p2p通信过程
  6. xxl-job集群原理
  7. java 数字翻译成英文_【Java】 剑指offer(46) 把数字翻译成字符串
  8. 数学符号名称,解释,定义加举例
  9. CNN(卷积神经网络)的深度
  10. 高等数学:对向量及其线性运算和数量积、向量积的见解