各个模型的对比

LeNet:

       该模型主要是用于识别10个手写数字的。

AlexNet:

     换个视角:

该模型的贡献有:

1.使用RELU作为激活单元。

2.使用Dropout选择性忽略单个神经元,避免过拟合。

3.选择最大池化,避免平均池化的平均化效果。

网络整体上包含三个结构模块:

VGG:

       该模型在2014年提出的,整个模型在卷积层采用3*3滤波器,步长为2,在池化层采用2*2池化窗口,步长为2。D(VGG16)和E(VGG19)的性能比较好。
      E(VGG19)模型:

VGG是把网络分为5组(模仿AlexNet的五层),然而它使用了3*3的滤波器,并把它们组合起来作为一个卷积序列进行处理。特征:

1.网络更深DCNN,channel数目更大。

2.采用多个3*3的卷积,模仿出更大的感受野的效果。这些思想也被用在了后续的网络架构中,如 Inception 与 ResNet。

GoogLeNet:

该模型的创新在于Inception,这是一种网中网的结构,即原来的结点也是一个网络。Inception一直在不断发展,目前已经V2、V3、V4了,感兴趣的同学可以查阅相关资料。Inception的结构如图所示,其中1*1卷积主要用来降维,用了Inception之后整个网络结构的宽度和深度都可扩大,能够带来2-3倍的性能提升。

Inception结构图

对Inception的结构做以下说明:

1. 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合;

2. 之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1后,只要分别设定pad=0、1、2,那么卷积后便可以得到相同维度的特征,然后这些特征就可以直接拼接在一起了;

3 . 文章说很多地方都表明pooling挺有效,所以Inception里面也嵌入了;

4 . 网络越到后面,特征越抽象,而且每个特征所涉及的感受野也更大了,因此随着层数的增加,3x3和5x5卷积的比例也要增加。

5. 使用5x5的卷积核仍然会带来巨大的计算量。 为此,文章借鉴NIN2,采用1x1卷积核来进行降维。 例如:假定上一层的输出为100x100x128,经过具有256个5x5卷积核的卷积层处理之后(stride=1,pad=2),输出数据为100x100x256,其中,卷积层的参数为128x5x5x256。假如上一层输出先经过具有32个1x1卷积核的卷积层,再经过具有256个5x5卷积核的卷积层,那么最终的输出数据仍为为100x100x256,但卷积层参数量已经减少为128x1x1x32 + 32x5x5x256,大约减少了4倍。

此外,该模型最后采用了average pooling来代替全连接层。但是,实际在最后还是加了一个全连接层,主要是为了方便以后大家finetune。

ResNet:

      ResNet:没有最深,只有更深(152层),听说目前层数已突破一千。该模型 要学习的是残差函数: , 残差块的结构如图所示:

实际中,考虑计算的成本,对残差块做了计算优化:将两个3x3的卷积层替换为1x1 + 3x3 + 1x1, 如下图所示:

Lenet、Alexnet 、VGG、 GoogleNet、ResNet模型相关推荐

  1. 计算机视觉:基于眼疾分类数据集iChallenge-PM图像分类经典模型剖析(LeNet,AlexNet,VGG,GoogLeNet,ResNet)

    计算机视觉:图像分类经典模型 LeNet AlexNet VGG GoogLeNet ResNet 图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉的核心,是物体检测.图像分割.物体跟 ...

  2. caffe总结(五)经典神经网络模型(LeNet , AlexNet , VGG , GoogLeNet)简介

    caffe总结(五) 一.LeNet 二.AlexNet ReLU 数据扩充 重叠池化 局部归一化(Local Response Normalization,简称LRN) Dropout 三.VGG ...

  3. CNN经典网络模型综述及发散思考(LeNet/ AlexNet/VGGNet/GoogLeNet/ResNet)

    目录 一. 背景 成功原因 设计目标 二. 经典网络模型 LeNet(1990 年) 网络特点 AlexNet(2012年) 网络特点 VGGNet(2014年) 网络特点 发散思考 GoogLeNe ...

  4. AlexNet,VGG,GoogleNet,ResNet

    AlexNet: VGGNet: 用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素 3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大 ...

  5. CNN经典网络模型:LeNet,Alexnet,VGGNet,GoogleNet,ReSNet

    关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需.如果读者是初接触CNN,建议可以先看一看"Dee ...

  6. CNN的发展历史(LeNet,Alexnet,VGGNet,GoogleNet,ReSNet)

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了, ...

  7. PyTorch - FashionMNIST + LeNet / AlexNet / VGG / GooLeNet / NiN / ResNet / DenseNet

    文章目录 项目说明 数据集说明 - FashionMNIST 算法说明 - LeNet-5 LeNet-5 网络结构 代码实现 数据准备 下载数据集 查看数据 定义网络 训练 设置参数 训练方法 验证 ...

  8. 经典网络结构学习(LeNet-5,AlexNet,VGG,GoogLeNet)

    致读者: 本篇文章是笔者的学习笔记,仅做记录用,而不作任何指导作用,大家阅读时请带着批判的眼光看待,如有错误欢迎指出. 文章目录 0 基础知识 0.1 卷积核与输入 0.2 Batch Norm 0. ...

  9. LeNet,AlexNet,VGG,NiN,GoogLeNet,ResNet

    1.LeNet–早期成功的神经网络 LeNet 分为卷积层块和全连接层块两个部分,卷积层块⾥的基本单位是卷积层后接最⼤池化层. 使用卷积层来学习图片空间信息,通过池化层降低图片敏感度 使用全连接层来转 ...

  10. Deep Learning回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet

    CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服.当时有流传的段 ...

最新文章

  1. post postman 传值_postman参数传递
  2. 天天沉迷于皇上本宫的都是sb
  3. numpy安装_Python进阶之NumPy快速入门(一)
  4. 学校计算机教室安全预案,小学校园微机室安全事故应急疏散预案
  5. 列表页时间日期标签靠显示html,帝国CMS列表页面list.var分别调用年月日,显示个性时间日期...
  6. 计算机在管理会计应用中的作用,信息化在管理会计中的作用
  7. Windbg简明教程(转)
  8. 04-Bootstrap的插件
  9. C#类型的强制转换及隐式转换
  10. cocos2d JS 源生js实现each方法
  11. 官宣,PyTorch 1.0 稳定版本现已推出
  12. PLC编程语言入门,常用指令集汇总分享
  13. bi 工具 市场排行榜_现在市场上的主流BI工具有哪几个
  14. 企业网站建设流程是什么?三个流程要知道
  15. 用计算机运算符编写检索式,在计算机检索中,常用的布尔逻辑算符有哪几种
  16. 【MDCC 2015】平台与技术-Android专场(上):剖析Android应用架构与设备体验
  17. 建模人必备的C4D素材网站,解决你的创作问题
  18. 六石管理学:突然看到两个男同事聊天,预判离职
  19. 刚构桥的优缺点_桥的类型以及适用条件,优缺点
  20. 实现游戏中的轮廓描边

热门文章

  1. 2019 Google Adsense 申请 两个月内审核通过两个网站复盘
  2. 放不下的原理_想要彻底忘记一个人,明白“洛克定律”的真实原理就可以
  3. 纯javascript的HTML在线编辑器
  4. 测试开发工程师成长日记018 - 测试面试必备题记录(持续更新)
  5. 天使投资和风险投资有何区别?
  6. 在HTML中添加视频的代码
  7. 【python】使用pandas快速提取腾讯问卷信息,比对未填写的人员的名单
  8. POSIX是什么有什么用
  9. 卷积神经网络 svm分类器_使用卷积神经网络的狗品种分类器
  10. 纳米数据世界杯数据接口,中超数据,体育数据比分,世界杯赛程api,足球比赛实时数据接口