卷积神经网络的网络结构——以LeNet-5为例

 

卷积神经网络是一种特殊的多层神经网络,像其它的神经网络一样,卷积神经网络也使用一种反向传播算法来进行训练,不同之处在于网络的结构。卷积神经网络的网络连接具有局部连接、参数共享的特点。局部连接是相对于普通神经网络的全连接而言的,是指这一层的某个节点只与上一层的部分节点相连。参数共享是指一层中多个节点的连接共享相同的一组参数。

一个典型的神经网络的结构是全连接的,即某一层的某个节点与上一层的每个节点相连,且每个节点各自使用一套参数,这样的结构就是经典的全连接结构。在全连接的网络中,假如k层有n个节点,k+1层有m个节点,则一共有n*m个连接;每个连接都有一个参数,外加每个k+1层节点有一个bias,则共有n*m + m个训练参数,所以全连接的层的连接数、参数数量的数量级约为O(n^2)。全连接的网络的结构如下图:

Figure1 全连接的网络

卷积神经网络采用局部连接和参数共享的方式连接网络。对于一个卷积神经网络,假如该网络的第k层有n个节点,k+1层为卷积层且有m个节点,则k+1层的每个节点只与k层的部分节点相连,此处假设只与k层的i个节点相连(局部连接);另外k+1层的每个节点的连接共享相同的参数、相同的bias(参数共享)。这样该卷积神经网络的第k、k+1层间共有m*i个连接、i+1个参数。由于i小于n且为常数,所以卷积层的连接数、参数数量的数量级约为O(n),远小于全连接的O(n^2)的数量级。卷积神经网络的部分连接的结构如下图:

Figure2 部分连接且卷积层各节点的输入节点有重叠的网络

Figure3 部分连接且卷积层各节点的输入节点无重叠的网络

卷积神经网络在使用时往往是多层的,下面通过LeNet-5的网络连接来举例说明一个卷积神经网络的结构和特点。LeNet-5是Yann LeCun在1998年设计的用于手写数字识别的卷积神经网络,是早期卷积神经网络中最有代表性的实验系统之一。

LenNet-5共有7层(不包括输入层),每层都包含不同数量的训练参数。各层的结构如Figure 4所示:

Figure4 LeNet-5的网络结构

LeNet-5中主要的有卷积层、下抽样层、全连接层3中连接方式。全连接层在这里就不赘述。

卷积层采用的都是5x5大小的卷积核,且卷积核每次滑动一个像素,一个特征图谱使用同一个卷积核(即特征图谱内卷积核共享参数),卷积核的结构见Figure 5。每个上层节点的值乘以连接上的参数,把这些乘积及一个偏置参数相加得到一个和,把该和输入激活函数,激活函数的输出即是下一层节点的值。卷积核有5x5个连接参数加上1个偏置共26个训练参数。这样局部连接、参数共享的方式,在数学上相当于上一层节点矩阵与连接参数矩阵做卷积得到的结果矩阵,即下一层的节点值,这是卷积神经网络名字的由来。Figure 6显示了卷积神经网络连接于矩阵卷积的对应关系:

Figure5 一个卷积节点的连接方式

Figure6 卷积神经网络连接与矩阵卷积的对应关系

下抽样层采用的是2x2的输入域,即上一层的4个节点作为下一层1个节点的输入,且输入域不重叠,即每次滑动2个像素,下抽样节点的结构见Figure 6。每个下抽样节点的4个输入节点求和后取平均,均值乘以一个参数加上一个偏置参数作为激活函数的输入,激活函数的输出即是下一层节点的值。一个下抽样节点只有2个训练参数。

Figure7 一个下抽样节点的连接方式

输入层是32x32像素的图片,比数据集中最大的的字符(最大体积是20x20像素的字符位于28x28像素区域的中心)大很多。这样做的原因是能使潜在的特征比如边缘的端点、拐角能够出现在最高层次的特征解码器的接收域的中心。LeNet-5的最后一个卷积层(C3,见后面)的接收域的中心与输入的32x32的图像的中心的20x20的区域相连。输入的像素值被标准化为背景色(白色)值为-0.1、前景色(黑色)值为1.175,这样使得输入的均值大致为0、方差大致为1,从而有利于加快训练的速度。

在后面的描述中,卷积层用Cx标记,子抽样层用Sx标记,全连接层用Fx标记,其中x表示该层的是LeNet的第x层。

C1层是卷积层,形成6个特征图谱。特征图谱中的每个单元与输入层的一个5x5的相邻区域相连,即卷积的输入区域大小是5x5,每个特征图谱内参数共享,即每个特征图谱内只使用一个共同卷积核,卷积核有5x5个连接参数加上1个偏置共26个参数。卷积区域每次滑动一个像素,这样卷积层形成的特征图谱每个的大小是28x28。C1层共有26x6=156个训练参数,有(5x5+1)x28x28x6=122304个连接。Figure 8 是C1层的连接结构。

Figure8 C1层的结构

S2层是一个下抽样层。C1层的6个28x28的特征图谱分别进行以2x2为单位的下抽样得到6个14x14的图。每个特征图谱使用一个下抽样核,每个下抽象核有两个训练参数,所以共有2x6=12个训练参数,但是有5x14x14x6=5880个连接。Figure 9是S2层的网络连接的结构。

Figure9 S2层的网络结构

C3层是一个卷积层,卷积和和C1相同,不同的是C3的每个节点与S2中的多个图相连。C3层有16个10x10的图,每个图与S2层的连接的方式如Table1 所示。C3与S2中前3个图相连的卷积结构见Figure 10.这种不对称的组合连接的方式有利于提取多种组合特征。改成有(5x5x3+1)x6 + (5x5x4 + 1) x 3 + (5x5x4 +1)x6 + (5x5x6+1)x1 = 1516个训练参数,共有1516x10x10=151600个连接。

Table 1 C3与S2的连接关系

Figure10 C3与S2中前3个图相连的卷积结构

S4是一个下采样层。C3层的16个10x10的图分别进行以2x2为单位的下抽样得到16个5x5的图。这一层有2x16共32个训练参数,5x5x5x16=2000个连接。连接的方式与S2层类似。

C5层是一个卷积层。由于S4层的16个图的大小为5x5,与卷积核的大小相同,所以卷积后形成的图的大小为1x1。这里形成120个卷积结果。每个都与上一层的16个图相连。所以共有(5x5x16+1)x120 = 48120个参数,同样有48120个连接。C5层的网络结构见Figure 11。

Figure11 C5层的连接方式

F6层是全连接层。F6层有84个节点,对应于一个7x12的比特图,-1表示白色,1表示黑色,这样每个符号的比特图的黑白色就对应于一个编码。该层的训练参数和连接数是(120 + 1)x84=10164. 比特图的样式见Figure 12,连接方式见Figure 13.

Figure12 编码的比特图

Figure13 F6层的连接方式

Output层也是全连接层,共有10个节点,分别代表数字0到9,且如果节点i的值为0,则网络识别的结果是数字i。采用的是径向基函数(RBF)的网络连接方式。假设x是上一层的输入,y是RBF的输出,则RBF输出的计算方式是:

的值由i的比特图编码确定。越接近于0,则越接近于,即越接近于i的比特图编码,表示当前网络输入的识别结果是字符i。该层有84x10=840个设定的参数和连接。连接的方式见Figure 14.

Figure14 Output层的网络连接方式

以上是LeNet-5的卷积神经网络的完整结构,共约有60,840个训练参数,340,908个连接。一个数字识别的效果如Figure 15所示。

Figure15 LeNet-5识别数字3的过程

通过对LeNet-5的网络结构的分析,可以直观地了解一个卷积神经网络的构建方法,为分析、构建更复杂、更多层的卷积神经网络做准备。

参考文献:

[1] Yoshua Bengio, DEEP LEARNING, Convolutional Networks, http://www.iro.umontreal.ca/~bengioy/dlbook/ .

[2] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, november 1998.

转载于:https://www.cnblogs.com/yumoye/p/10369356.html

LeNet-1998-Yann LeCun相关推荐

  1. Deep learning—Yann LeCun, Yoshua Bengio Geoffrey Hintonxi

    一.背景知识 1.传统方法: 构建一个模式识别或机器学习系统需要领域专家的帮助设计一个特征提取器 2.表示学习: 一系列允许机器接收原始数据并自动转换成监测或分类任务能处理的形式的方法 3.深度学习方 ...

  2. 梦回93年,32岁的Yann LeCun在展示他的卷积网络...

    作者:梦佳 1993年的你在哪里? 1993年的杨立昆已经做出了第一个卷积网络. 最近,Reddit上一段来自1993年的 1分钟视频火爆网络,视频中,刚过而立之年的Yann LeCun向大家展示了当 ...

  3. 【AI大咖】再认识Yann LeCun,一个可能是拥有最多中文名的男人

    https://www.toutiao.com/i6693678422733881860/ 上一期扒了扛起深度学习大旗的Hinton先生,今天聊一位他的学生,深度学习中CNN的崛起离不开的男人--Ya ...

  4. 怼完Sophia怼深度学习!细数完大神Yann LeCun 这些年怼过的N件事,原来顶级高手是这样怼人的...

    图片来源:PCmag.com 十多个小时前,深度学习大神Yann LeCun语出惊人,他宣布放弃"深度学习"这个词.因为媒体对这个词的炒作言过其实,混淆了大家真正的工作,而&quo ...

  5. 2202年了,AI还是不如猫!图灵奖得主Yann LeCun:3大挑战依然无解

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 来源丨新智元 编辑丨极市平台 导读 2022年了,LeCun依然认为 ...

  6. Yann LeCun:发现智能原理是AI的终极问题 | 独家对话

    导读:在<科学之路:人,机器与未来>一书中,图灵奖得主,卷积网络之父杨立昆(Yann LeCun)提出,在科学史上,技术产品的出现往往先于解释其工作的理论和科学.发现智能工作的潜在机制和原 ...

  7. AI大神Yann LeCun谈近期AI发展:最聪明的AI在常识方面还不如猫

    来源:网易智能 摘要:从虚拟助手到巨大的商业效益,人工智能正在重塑信息时代,作为著名的人工智能先驱者之一,Yann LeCun又是怎么看待这一领域的发展.近期的变化和潜力的呢? 从虚拟助手到巨大的商业 ...

  8. 吴恩达专访 Yann LeCun:是的我们曾经历黑暗时刻,但我始终抱有信念

    原标题:吴恩达专访 Yann LeCun:是的我们曾经历黑暗时刻,但我始终抱有信念 雷锋网 AI 科技评论按:时隔半年,终于等来了 Yann LeCun 回忆杀视频. 去年 8 月时,随着 deepl ...

  9. 吴恩达对话Yann LeCun:从相识Hinton到深度学习崛起

    视频链接:https://www.youtube.com/watch?v=JS12eb1cTLE&feature=youtu.be 吴恩达:Hi Yann,你研究神经网络很长一段时间了,我想听 ...

  10. 深度学习元老Yann Lecun详解卷积神经网络

     深度学习元老Yann Lecun详解卷积神经网络 本文联合编译:Blake.高斐 雷锋网(公众号:雷锋网)注:卷积神经网络(Convolutional Neural Network)是一种前馈神 ...

最新文章

  1. stm32 标准库一些比较容易犯的错误
  2. Bluetooth profile: ATT/GATT(襄坤在线)
  3. 聊一聊社交网络的逻辑、产品和未来
  4. python红色的颜色表达式_50行Python代码实现视频中物体颜色识别和跟踪(必须以红色为例)...
  5. 织梦html编辑器功能在哪,织梦dede自带编辑器替换百度ueditor编辑器
  6. numpy.loadtxt()用法
  7. cocos2dx 开启控制台
  8. 本地工程提交github
  9. list_for_each_entry和list_for_each_entry_safe
  10. Template Method模板方法
  11. visa虚拟卡生成器_虚拟信用卡。亲,你懂了吗?
  12. rx560d linux 图形设计,RX560D与560区别对比:RX 560D和RX 560哪个好
  13. np.random.seed()函数
  14. php秒表计时器,JS实现可暂停秒表计时器的效果(图文详解)
  15. linux内存管理-页面规整
  16. iOS Tagged Pointer
  17. 如何在手机浏览器中控制扫描仪做文档扫描
  18. 企业微信如何设置文件权限?
  19. 在线视频系统-EasyRTC入门
  20. 【FreeBSD】VMware 安装 FreeBSD

热门文章

  1. Hadoop审计日志配置[转自 AIMP平台wiki]
  2. 将默认打开方式改成Office后,桌面办公软件图标变成白板
  3. 超详细的3D视觉学习路线汇总
  4. 如何调节音频音量大小?
  5. 观沈向洋博士论文阅读技巧有感
  6. Java实现经典算法
  7. 小米3基于android,小米手机3评测 最大最快的小米3详细评测图文介绍
  8. 最新版MySQL-8.0.22-winx64 安装
  9. Wscript.shell对象参考手册
  10. MS Office Word 2007/2003 资料下载汇总