经典卷积神经网络的学习(三)—— Inception Net
Google Inception Net 首次出现在 ILSVRC 2014 的比赛中(和 VGGNet 同年),就以较大优势拔得头筹。那届比赛中的 Inception Net 一般被称为 Inception V1(version 1),其最大的优势在于控制 了参数量(也就控制了计算量)的同时,仍然能够获得非常好的分类性能 —— top-5 错误率 6.67%。
Inception V1 降低餐数量的目的在于以下两点:
- 参数越多,模型越庞大,需要提供模型学习的数据量也就越大,而当前高质量的数据非常昂贵;
- 参数越多,相应地耗费的计算资源也会更大;
0. 一些细节问题
- Scale images because Inception needs pixels to be between 0 and 255,
- Inception net 要求输入图像的像素值在 0-255 区间内,而不是 0-1,如果原始图像的像素值在 0-1,需要在乘以 255;
- The output of the Inception model is a so-called Softmax-function
- Inception net 的输出是 softmax-function,
- 为什么使用了较多 1×11\times 1 的卷积?
- 图片数据天然地邻近区域的数据相关性较高,也即可通过卷积操作使相邻的像素点连接在一起。我们可十分方便构造多个卷积核,在同一空间位置但不同通道的卷积核的输出结果相关性较高。
- 因此一个 1×11\times 1 的卷积就可以很自然地将这些相关性很高的、在同一空间位置但不同通道的特征连接在一起,这也正是 1×11\times 1 的卷积会频繁地应用到 Inception Net 中的原因。
- 1×11\times 1 卷积所连接的节点的相关性是最高的,而稍微大一点尺寸的卷积,3×33\times 3、5×55\times 5 的卷积所连接的节点相关性也很高,因此可进一步地使用一些稍大尺寸的卷积,增加特征多样性(diversity);
1. 模型拓扑
- Inception V1 有 22 层深,比 AlexNet 的 8 层或者 VGGNet 的 19 层还要更深。
去除了最后的全连接层,而使用全局平均池化层(将图片尺寸变为 1×11\times 1)取代全连接层;
如上图所示为 Inception Module 的结构图,可知:
- 基本结构共有四个分支;Inception Module 的 4 个分支在最后一个聚合操作合并(在输出通道数这个维度上聚合)
- Inception Module 中包含了:
- 3 种不同尺寸的卷积:1×1,3×3,5×51\times 1, 3\times 3, 5\times 5
- 1 个最大池化层:3×33\times 3
2. Inception Net 家族
- 2014 年 9 月,Going Deeper with Convolutions ⇒ Inception V1(top-5 错误率 6.67%)
- 2015 年 2 月,Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate ⇒ Inception V2(top-5 错误率 4.8%)
- 学习了 VGGNet,用两个 3×33\times 3 的卷积代替 5×55\times 5 的大卷积(以降低参数和减轻过拟合),正如论文标题所言,还提出了有效的 Batch Normalization 方法,可为大型卷积网络的训练加速很多倍;
- 2015 年 12 月,Rethinking the Inception Architecture for Computer Vision ⇒ Inception V3(top-5错误率 3.5%),主要有下述改进:
- 引入 Factorization into Small convolutions 的思想,讲一个较大的二维卷积拆成两个较小的一维卷积,比如将 7×77\times 7 ⇒ 1×71\times 7 & 7×17 \times 1
- 2016 年 2 月,Inception V4、Inception-ResNet and the Impact of Residual Connections on learning,提出 Inception V4 的概念,(top-5 错误率 3.08%)
经典卷积神经网络的学习(三)—— Inception Net相关推荐
- 经典卷积神经网络的学习(一)—— AlexNet
AlexNet 为卷积神经网络和深度学习正名,以绝对优势拿下 ILSVRC 2012 年冠军,引起了学术界的极大关注,掀起了深度学习研究的热潮. AlexNet 在 ILSVRC 数据集上达到 16. ...
- 经典卷积神经网络的学习(二)—— VGGNet
1. 简介 VGGNet 是牛津大学计算机视觉组(Visual Geometry Group)和 Google DeepMind 公司的研究员一起研发的深度卷积神经网络,其主要探索了卷积神经网络的深度 ...
- 深度学习二三事-回顾那些经典卷积神经网络
前言 卷积神经网络从2012年开始逐步火热起来.我是在2017年开始接触深度学习技术,完成硕士课题研究,在2019年毕业后以算法工程师职位进入AI创业公司,如今工作3年了.俗话说,温故而知新,结合自己 ...
- 【深度学习基础】经典卷积神经网络
点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 导语 卷积神经网络(Convolutional Neural Ne ...
- AI基础:经典卷积神经网络
导语 卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深 ...
- 一文总结经典卷积神经网络CNN模型
一般的DNN直接将全部信息拉成一维进行全连接,会丢失图像的位置等信息. CNN(卷积神经网络)更适合计算机视觉领域.下面总结从1998年至今的优秀CNN模型,包括LeNet.AlexNet.ZFNet ...
- Tensorflow系列 | TensorFlowNews五大经典卷积神经网络介绍
编译 | fendouai 编辑 | 安可 [导读]:这个系列文章将会从经典的卷积神经网络历史开始,然后逐个讲解卷积神经网络结构,代码实现和优化方向.下一篇文章将会是 LeNet 卷积神经网络结构,代 ...
- CNN(经典卷积神经网络)来了!
导语 卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深 ...
- 深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-04-基于Python的LeNet之MLP
原文地址可以查看更多信息 本文主要参考于:Multilayer Perceptron python源代码(github下载 CSDN免费下载) 本文主要介绍含有单隐层的MLP的建模及实现.建议在阅读 ...
最新文章
- 【数据结构与算法】之深入解析“两数之和”的求解思路与算法示例
- 微软超融合私有云测试11-SCVMM2016部署之添加Hyper-V集群
- 一个带CheckBox的树形目录的递归算法(javascript)
- 上项线体表位置_体表定位
- c语言qsort函数源码,qsort源代码分析
- cdr三角形转化为圆角_CDR金属质感小图标图文解析
- SQL面试题--(26~46)
- ermaster连接oracle数据库表,window连接远程服务器报函数不支持之解决方案
- DOS 下修改ip 地址
- 关于论文可查阅的网站
- rf扫描枪_RF枪是什么,怎么用,在哪用?
- Java、两点间距离
- Hexo文章中图片点击实现全屏查看
- Debezium报错处理系列之三十四:The db history topic or its content is fully or partially missing. Please check d
- 临江屯的月亮湾---月亮泡子
- 新手程序员必备10大技能
- 3D Instance Embedding Learning With a Structure-Aware Loss Function for Point Cloud Segmentation
- python打开pdf文档
- 接单,外快开发利器-MyBatis-Plus
- vrrp mstp 配置实验(学习笔记)
热门文章
- (转)Managed DirectX +C# 开发(入门篇)(三)
- php mysql合同跟踪,使用TCP协议进行路由跟踪
- linux7配置永久路由,CentOS7添加永久路由
- mysql每一行数据类型_MySQL_MySQL编程中的6个实用技巧,每一行命令都是用分号(;)作为 - phpStudy...
- android view 屏幕外,安卓如何让View往屏幕外隐藏?
- sparkstreaming自定义kafka
- php $表达式,PHP表达式概念及实例详解
- CUDA精进之路(零):CUDA开篇
- OCR之Tesseract使用
- 报错Caused by: org.hibernate.AnnotationException: No identifier specified for entity: