图像分类经典神经网络大总结(AlexNet、VGG 、GoogLeNet 、ResNet、 DenseNet、SENet、ResNeXt )
前言
在CNN网络结构的演化上,出现过许多优秀的CNN网络,CNN的经典结构始于1998年的LeNet,成于2012年历史性的AlexNet,从此盛于图像相关领域。
发展历史:Lenet --> Alexnet --> ZFnet --> VGG --> NIN --> GoogLeNet -->ResNet--> DenseNet -->ResNeXt ---> EfficientNet
神经网络 | 年份 | 标签 | 作者 |
---|---|---|---|
LeNets | 1998年 | CNN开山之作 | 纽约大学 |
AlexNet | 2012年 |
深度学习CV领域划时代论文 具有里程碑意义 ImageNet 2020冠军 |
多伦多大学 Hinton团队 |
ZFNet | 2013年 | ImageNet 2013冠军 | 纽约大学 |
GoogLeNet V1 | 2014年 |
Google系列论文开创论文 ImageNet 2014冠军 Inception模块 |
谷歌 |
VGG | 2014年 |
开启3*3卷积堆叠时代 ImageNet 2014亚军 VGG-16和VGG-19 |
牛津大学 |
NiN | 2014年 |
Network in Network(网中网) GAP(全局平均池化) |
新加坡国立大学 |
ResNet | 2015年 |
最具影响力的卷积神经网络 ImageNet 2015冠军 残差网络 |
何凯明团队 微软亚院 |
Wide ResNet | 2016年 | 增加残差中卷积核数量(宽度) | 谢尔盖·扎戈鲁科 |
Squeeze Net | 2016年 |
轻量级网络 压缩参数量 |
斯坦福大学 伯克利大学 |
DenseNet | 2017年 |
ImageNet 2016冠军 CVPR 2017最佳论文 Dense模块 |
康奈尔大学 清华大学 |
SENet | 2017年 |
ImageNet 2017冠军 SE模块 |
momenta + 牛津大学 胡杰 |
ResNext | 2017年 |
何恺明团队对ResNet重大改进 Resnet + Inception |
Saining Xie团队 |
FractalNet | 2017年 | 分形网络 | Gustav Larsson团队 |
MobileNets | 2017年 |
轻量级 Group卷积 Depthwise Seperable卷积 |
谷歌 |
NASNet | 2018年 | 神经架构搜索 强化学习 | 谷歌 |
(图片来源见水印)
在前一段的学习中,我们精读了八篇经典网络的论文,并实现了代码复现。这篇文章是对之前学习的一个总结,主要针对各个网络结构和创新点以及如何实现来进行一个回顾。
目录
前言
一、AlexNet
1.简介
2.网络结构
3.创新点
二、VGG
1.简介
2.网络结构
3.网络配置
4.创新点
三、GoogLeNet InceptionV1
1.简介
2.网络结构
3.网络配置
4.创新点
四、GoogLeNet InceptionV2-V3
1.简介
2.网络结构
3.网络配置
4.创新点
五、ResNet
1.简介
2.网络结构
3.网络配置
4.创新点
六、DenseNet
1.简介
2.网络结构
3.网络配置
4.创新点
七、SENet
1.简介
2.网络结构
3.网络配置
4.创新点
八、ResNeXt
1.简介
2.网络结构
3.网络配置
4.创新点
图像分类经典神经网络大总结(AlexNet、VGG 、GoogLeNet 、ResNet、 DenseNet、SENet、ResNeXt )相关推荐
- 计算机视觉:基于眼疾分类数据集iChallenge-PM图像分类经典模型剖析(LeNet,AlexNet,VGG,GoogLeNet,ResNet)
计算机视觉:图像分类经典模型 LeNet AlexNet VGG GoogLeNet ResNet 图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉的核心,是物体检测.图像分割.物体跟 ...
- AlexNet,VGG,GoogleNet,ResNet
AlexNet: VGGNet: 用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素 3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大 ...
- 经典网络结构学习(LeNet-5,AlexNet,VGG,GoogLeNet)
致读者: 本篇文章是笔者的学习笔记,仅做记录用,而不作任何指导作用,大家阅读时请带着批判的眼光看待,如有错误欢迎指出. 文章目录 0 基础知识 0.1 卷积核与输入 0.2 Batch Norm 0. ...
- caffe总结(五)经典神经网络模型(LeNet , AlexNet , VGG , GoogLeNet)简介
caffe总结(五) 一.LeNet 二.AlexNet ReLU 数据扩充 重叠池化 局部归一化(Local Response Normalization,简称LRN) Dropout 三.VGG ...
- Keras封装实现经典深度网络框架 VGG-16, ZF-Net,Alex-Net,LeNet,Google-Net,ResNet, DenseNet-50
文章目录 1.Keras封装实现 LeNet网络-5(1998) 2.Keras封装实现 Alex-Net网络-8(2012) 3.Keras封装实现 ZF-Net网络-8(2013) 4.Keras ...
- [深度学习-总结]Deep learning中8大模型介绍与比较(LeNet5,AlexNet,VGG,Inception,MobileNets,ResNet,DenseNet,Senet)
深度学习 9中模型介绍与比较 0. CNN 结构演化 1. LeNet5 2. AlexNet 3. VGG 为什么使用2个3x3卷积核可以来代替5*5卷积核 4. 1*1卷积 5. Inceptio ...
- CNN经典网络模型综述及发散思考(LeNet/ AlexNet/VGGNet/GoogLeNet/ResNet)
目录 一. 背景 成功原因 设计目标 二. 经典网络模型 LeNet(1990 年) 网络特点 AlexNet(2012年) 网络特点 VGGNet(2014年) 网络特点 发散思考 GoogLeNe ...
- Pytorch之经典神经网络CNN(三) —— AlexNet(CIFAR-10) (LRN)
2012年 多伦多大学Hinton提出的 AlexNet AlexNet是第一个large-scale CNN, 从AlexNet之后CNN开始变得火了起来 贡献是提出了用多层最小卷积叠加来替换单个大 ...
- 详解CNN五大经典模型:Lenet,Alexnet,Googlenet,VGG,DRL
关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需. Lenet,1986年 Alexnet,2012年 Go ...
最新文章
- 为什么有些高级开发不喜欢 Python?
- 模块开发卷宗(GB8567——88)
- MySQL事件与定时器,mysql下存储过程与定时器
- 又酸了!腾讯员工福利再升级:入职满15年可“提前退休”
- learning rate 学习速率
- 微服务化浪潮中,网易考拉借浪拉动业务极速增长
- 【VirtualBox】VirtualBox的四种网络连接模式
- 通俗易懂的Spatial Transformer Networks(STN)(二)
- STM32F103_study48_The punctual atoms(STM32 Serial communication experiment )
- 2021年美国大学生数学建模竞赛C题参考翻译
- 【论文】GC-MC论文相关
- 华为OD机试2022.11.04 只记得两题
- 考研政治(一)马克思原理
- 西游记中孙悟空为什么打不过有法宝的妖怪?
- 武汉市公交老年卡在什么地方可以年检
- EndNote20 【无法编辑Range】解决办法
- 公有云托管K8s服务百花齐放,企业如何统一纳管、便捷管理?
- 使用PhotoZoom将像素图变为手绘图
- 树莓派Pico-Raspberry Pi Pico安装及使用
- puppet自动化运维工具安装配置
热门文章
- 一分钟教会你利用thinkphp5.0接入支付宝
- 指定节点滚动到屏幕中间的js
- 计算机主机只有cpu,装机不求人:电脑CPU坏是什么原因?
- “熊猫烧香”变种“金猪报喜”制作者落网
- 代码删除linux桌面环境,manjaro更换深度桌面 卸载ked桌面(示例代码)
- Ec/Io Eb是什么?
- C++编程规范常识(学前必看)
- 我和一个投资人聊了聊公有云的资本情况,太无趣了
- KBEngine(CBE)引擎研究 (一) 启动正确的进程
- 如何看待当代年轻人对仪式感的追求?
计算机视觉:图像分类经典模型 LeNet AlexNet VGG GoogLeNet ResNet 图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉的核心,是物体检测.图像分割.物体跟 ...
AlexNet: VGGNet: 用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素 3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大 ...
致读者: 本篇文章是笔者的学习笔记,仅做记录用,而不作任何指导作用,大家阅读时请带着批判的眼光看待,如有错误欢迎指出. 文章目录 0 基础知识 0.1 卷积核与输入 0.2 Batch Norm 0. ...
caffe总结(五) 一.LeNet 二.AlexNet ReLU 数据扩充 重叠池化 局部归一化(Local Response Normalization,简称LRN) Dropout 三.VGG ...
文章目录 1.Keras封装实现 LeNet网络-5(1998) 2.Keras封装实现 Alex-Net网络-8(2012) 3.Keras封装实现 ZF-Net网络-8(2013) 4.Keras ...
深度学习 9中模型介绍与比较 0. CNN 结构演化 1. LeNet5 2. AlexNet 3. VGG 为什么使用2个3x3卷积核可以来代替5*5卷积核 4. 1*1卷积 5. Inceptio ...
目录 一. 背景 成功原因 设计目标 二. 经典网络模型 LeNet(1990 年) 网络特点 AlexNet(2012年) 网络特点 VGGNet(2014年) 网络特点 发散思考 GoogLeNe ...
2012年 多伦多大学Hinton提出的 AlexNet AlexNet是第一个large-scale CNN, 从AlexNet之后CNN开始变得火了起来 贡献是提出了用多层最小卷积叠加来替换单个大 ...
关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需. Lenet,1986年 Alexnet,2012年 Go ...