AlexNet:

VGGNet:

用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素

3x3的感受野与7x7的感受野相同,但是需要更深的网络

这样使得参数更少

大多数内存占用在靠前的卷积层,大部分的参数在后面的全连接层

GoogleNet:

Inception模块:设计了一个局部网络拓扑结构,然后堆放大量的局部拓扑在每一个的顶部

目的是将卷积和池化(filter)操作并行,最后在顶层将得到的输出串联得到一个张量进入下一层

这种做法会增加庞大的计算量:

(图中输入输出尺寸不变是因为增加了零填充)

为了降低计算量,会在inception之前增加一个瓶颈层通过1x1的卷积核进行降维操作

相比没有1x1卷积核的降维,计算量从8.54亿次减小到3.58亿次

网络结构尾部完全移除全连接层,大量减少参数;有两个额外的辅助分类层

ResNet:

单纯不停的堆叠卷积层池化层plain convolutional neural network不使用残差结构)来加深网络的深度并不能表现得更好(不是因为过拟合,在训练集上表现得也不如20层的网络)

这是一个优化问题,深层的网络更加难以优化

深层的网络至少会跟浅层的网络表现的一样好,解决方案是将从浅层模型学到的层通过恒等映射copy到较深的层。

若将输入设为X,将某一有参网络层设为H,那么以X为输入的此层的输出将为H(X)。一般的CNN网络如Alexnet/VGG等会直接通过训练学习出参数函数H的表达,从而直接学习X -> H(X)。

而残差学习则是致力于使用多个有参网络层来学习输入、输出之间的参差即H(X) - X即学习X -> (H(X) - X) + X。其中X这一部分为直接的identity mapping,而H(X) - X则为有参网络层要学习的输入输出间残差。

残差学习单元通过Identity mapping的引入在输入、输出之间建立了一条直接的关联通道,从而使得强大的有参层集中精力学习输入、输出之间的残差。一般我们用F(X, Wi)来表示残差映射,那么输出即为:Y = F(X, Wi) + X。

resnet也用到了GoogleNet中的瓶颈层操作

改进的残差:

其他的网络:

1

转载于:https://www.cnblogs.com/Manuel/p/11090339.html

AlexNet,VGG,GoogleNet,ResNet相关推荐

  1. 计算机视觉:基于眼疾分类数据集iChallenge-PM图像分类经典模型剖析(LeNet,AlexNet,VGG,GoogLeNet,ResNet)

    计算机视觉:图像分类经典模型 LeNet AlexNet VGG GoogLeNet ResNet 图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉的核心,是物体检测.图像分割.物体跟 ...

  2. caffe总结(五)经典神经网络模型(LeNet , AlexNet , VGG , GoogLeNet)简介

    caffe总结(五) 一.LeNet 二.AlexNet ReLU 数据扩充 重叠池化 局部归一化(Local Response Normalization,简称LRN) Dropout 三.VGG ...

  3. Keras封装实现经典深度网络框架 VGG-16, ZF-Net,Alex-Net,LeNet,Google-Net,ResNet, DenseNet-50

    文章目录 1.Keras封装实现 LeNet网络-5(1998) 2.Keras封装实现 Alex-Net网络-8(2012) 3.Keras封装实现 ZF-Net网络-8(2013) 4.Keras ...

  4. CNN经典网络模型综述及发散思考(LeNet/ AlexNet/VGGNet/GoogLeNet/ResNet)

    目录 一. 背景 成功原因 设计目标 二. 经典网络模型 LeNet(1990 年) 网络特点 AlexNet(2012年) 网络特点 VGGNet(2014年) 网络特点 发散思考 GoogLeNe ...

  5. 经典网络结构学习(LeNet-5,AlexNet,VGG,GoogLeNet)

    致读者: 本篇文章是笔者的学习笔记,仅做记录用,而不作任何指导作用,大家阅读时请带着批判的眼光看待,如有错误欢迎指出. 文章目录 0 基础知识 0.1 卷积核与输入 0.2 Batch Norm 0. ...

  6. CNN经典网络模型:LeNet,Alexnet,VGGNet,GoogleNet,ReSNet

    关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需.如果读者是初接触CNN,建议可以先看一看"Dee ...

  7. CNN的发展历史(LeNet,Alexnet,VGGNet,GoogleNet,ReSNet)

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了, ...

  8. Deep Learning回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet

    CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服.当时有流传的段 ...

  9. Deep Learning回顾之LeNet、AlexNet、GoogLeNet、VGG、ResNet

    from:#Deep Learning回顾#之LeNet.AlexNet.GoogLeNet.VGG.ResNet CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Pape ...

最新文章

  1. http反向代理调度算法追朔
  2. javascript 常用校验代码 2
  3. 李宏毅机器学习作业2:Winner还是Losser(含训练数据)
  4. machine learning学习笔记
  5. 二元相图软件_FactSage 软件教程 入门学习资料汇总
  6. 华为nova 9系列曝光:全系标配骁龙778G 4G处理器
  7. Linux学习总结(58)——生产环境运维故障处理指南
  8. WCF技术剖析之六:为什么在基于ASP.NET应用寄宿(Hosting)下配置的BaseAddress无效...
  9. 几个简单的Makefile
  10. python入门基础语法总结
  11. python--函数式登录程序
  12. socket创建失败_python3从零学习-5.8.1、socket—底层网络接口
  13. NOD32离线升级更新包使用方法
  14. ZZULIOJ1026-1030Python解法
  15. 游戏音效制作需要哪些要求
  16. 2021年安全员-C证(陕西省)考试资料及安全员-C证(陕西省)免费试题
  17. Android Activity中实现Fragment切换功能效果
  18. (面试)Springboot的启动流程
  19. Oracle卸载教程
  20. 时间复杂度的计算详解

热门文章

  1. 面向对象的重试模式方法
  2. 在Python中使用MongoDB
  3. 加速ASP.NET Core WEB API应用程序——第2部分
  4. 如何访问云端的tcpserver_Swoole: TcpServer+SocketServer+EMQTT组合,实现基础设备控制
  5. 插入公式_word2016编写文档 插入公式选项为暗,不能操作
  6. tortoisegit中文_tortoiseGit实用教程
  7. c++ string 数组_PHP数组与字符串之间相互转换的方法
  8. ubuntu cmake安装_如何在Emacs中得到一个真正的Terminal?vterm安装指南
  9. mac配置php mysql_mac配置Apache+php+mysql
  10. group by后可以join吗_去韩国留学毕业后可以留在韩国吗