目标检测

目标检测,不仅要识别目标是什么(分类),还要知道目标的具体位置(可以当作回归来做)。

RCNN

Selective Search 算法获得候选框,Alexnet提取特征,SVM对每个候选框区域打分。对于重叠的区域,通过计算IoU和非极大值抑制,剔除重叠的区域。imagenet到VOC的迁移学习,VOC只有21个类,其中一类是背景。

YOLO

you only look once,属于one stage检测,因为不需要提前使用其他的算法获得候选区域。虽然不是显式地找候选框,隐式的也是少不了的。YOLO把图像均匀分成SxS的格子,每个格子预测B个候选框,一般取S=7,B=2,这样得到98个候选框。虽然有这么多BBox,但是有些是没有意义的,因为其对应的格子就不包含object。不包含object的cell肯定不予考虑,那么包含着object的呢,也要打分排序:与groundtruth的IoU越高,得分也越高,这个得分叫做置信度confidence。更进一步,即便有一些cell的置信度都很高,得分都一样,但是他们的重要程度可能还是不一样的:那些object的中心落在哪个cell中,哪个cell的重要性更高,可以为这个object负责。这个重要程度以条件概率的形式给出,即这个cell是属于某个object的前提下,属于class i的概率。

YOLO v1 的模型结构受 GoogLeNet 启发。但是,有少许不同。YOLO 采用了 1x1 和 3x3 的序列组合替代 Inception 模块。YOLO 模型的最后一层是一个 7x7x30 的 tensor,怎么理解呢?7x7自然对应的是空域中的均匀分割,每一个cell对应2个BBox,每个BBox对应两个内容,一个是空间位置(中心点坐标x,y,长宽w,h,通道数c),一个是对应各个类别的概率(20类,长度20),所以最终的输出就是7x7x((2+2+1)*2+20))

AlenNet

成功使用了Relu,成功使用了Dropout,成功使用了重叠的最大池化(最大池化相比于平均池化,避免了模糊效应;而重叠的是通过步长小于池化核,使得输出之前有重叠,提升了特征的丰富性)。注意这里都是“成功应用”,而不是提出,AlenNet提出的贡献是LRN。

local response normalization

这里的作用也是避免过拟合,提升泛化能力。思路是为局部神经元创建竞争机制,模拟生物学中的“侧抑制“,反馈大的被激活,反馈小的被抑制。

google

vgg

inception

Inception是GoogleNet中的一个模块。这个词的本意是开端,同时也作为《盗梦空间》的英文名。模块起这个名字正是为了像盗梦空间一样进入更深的“梦境”。在更深之前,首先是更宽。既然卷积核的大小有限制,太大不行,太小也不行,那就用多个不同尺寸的卷积核,不同卷积核的输出不再是对应像素相加,而是级联起来,送入下一层。

那么,Inception具体选取了哪几个尺寸的卷积核呢。1x1,3x3和5x5,还有一个最大池化层,相当于Inception模块不仅要帮助你决定卷积核的尺寸,还要决定是否使用池化层。1x1卷积和其他卷积其实本质是一样的,都是跨通道的线性组合,只不过它没有改变特征图的分辨率,所以可以认为是在通道维度降低了维度(当然也可以升维,与滤波器个数有关)。既然1x1卷积可以降维,那么就可以在Inception中的卷积之前,池化之后加一步1x1卷积,降低计算量,这就是Inception V1。

网络更宽了,就可以更深吗?我们知道,更深的话容易遇到梯度消失的问题,其实在这里这个问题依然存在。为了解决这个问题,GoogleNet额外增加了两个辅助的softmax。具体做法是对其中的两个Inception模块,他们的输出一方面进入下一个Inception,一方面会在平均池化后使用1x1降维,再经过全连接,进入softmax激活层。

ResNet

既然梯度消失是层层累积造成的现象,那么我们可不可以让某些层跳过之前的几层,得到梯度消失之前的信息?ResNet就是这样做到,同时给这种短路机制的想法赋予了一个更高大上其实也更合理的解释:这种结构不再是让网络直接学习目标值,而是让接下来的网络学习之前学习的结果与目的的差值。在不断减小残差的同时,也得到了更加准确的预测。当残差为0时,这一模块即为恒等映射

事实上,ResNet作为2016年的最佳CVPR论文,在ImageNet分类竞赛中,将DNN的深度从VGG的16层提升到了152层。对于更深的DNN,每个Res模块的深度也可以从两层增加到三层:

ResNet的一个重要设计原则是:当feature map大小降低一半时,feature map的数量增加一倍,这保持了网络层的复杂度。对于短路连接,当输入和输出维度一致时,可以直接将输入加到输出上。但是当维度不一致时(对应的是维度增加一倍),这就不能直接相加。有两种策略:(1)采用zero-padding增加维度,此时一般要先做一个downsamp,可以采用strde=2的pooling,这样不会增加参数;(2)采用新的映射(projection shortcut),一般采用1x1的卷积,这样会增加参数,也会增加计算量。短路连接除了直接使用恒等映射,当然都可以采用projection shortcut。https://zhuanlan.zhihu.com/p/31852747

DenseNet

mobile net

https://blog.csdn.net/briblue/article/details/82012575

https://www.cnblogs.com/dengshunge/p/10808191.html

CV中的经典网络模型相关推荐

  1. 深度学习中的经典基础网络结构(backbone)总结

    深度学习中的经典基础网络结构总结 这篇文章从大的发展趋势介绍了下主干网络的发展,而在 CV 经典主干网络 (Backbone) 系列: 开篇 中主要是对一些比较经典的主干网络进行简单梳理. 1. 深度 ...

  2. CV领域最经典的Paper是什么来头?

    最近后台有很多准研究生粉丝给我留言,重复频次最高的2个主题是: ① 如何高效地筛选.阅读论文? ② 如何高效复现论文? AI领域学术会议动辄上千篇文章,无论是准研究生还是现研究生,都会碰到这个问题. ...

  3. 从理论支撑到具体应用,万字长文详述 CV 中 Transformer 的广阔天地

    写在前面-- 自 2017 年 Transformer 技术出现以来,便在 NLP.CV.语音.生物.化学等领域引起了诸多进展. 知源月旦团队期望通过"Transformer+X" ...

  4. 图像处理和计算机视觉中的经典论文

    转自:http://www.cnblogs.com/moondark/archive/2012/04/20/2459594.html 感谢水木上同领域的同学分享,有了他的整理,让我很方便的获得了CV方 ...

  5. 图像处理和计算机视觉中的经典论文(部分)

    自己视野狭小,不敢说全部,只是把自己熟悉的方向中的部分经典文章列出来了.经典的论文,读得怎么透都不过分.有人说关于配准的文章太多了,其实我也不太关注这方面,不过由于它们引用率都比较高,就都列出来了,不 ...

  6. 万字长文解析CV中的注意力机制(通道/空间/时域/分支注意力)

    点击下方卡片,关注"自动驾驶之心"公众号 ADAS巨卷干货,即可获取 点击进入→自动驾驶之心技术交流群 后台回复[transformer综述]获取2022最新ViT综述论文! 注意 ...

  7. 经典网络模型-SENet注意力机制

     简介 SENet是由 Momenta 和 牛津大学 的 胡杰等人 提出的一种新的网络结构,目标是通过显式的建模 卷积特征通道 之间的 相互依赖关系 来提高网络的表示能力.在2017年最后一届 Ima ...

  8. CV中的Attention机制总结

    CV中的Attention机制 注意力机制 CV中的注意力机制 卷积神经网络中常用的Attention 视觉注意力机制在分类网络中的应用 SE-Net(CVPR 2017) ECA-Net(CVPR ...

  9. CNN经典网络模型综述及发散思考(LeNet/ AlexNet/VGGNet/GoogLeNet/ResNet)

    目录 一. 背景 成功原因 设计目标 二. 经典网络模型 LeNet(1990 年) 网络特点 AlexNet(2012年) 网络特点 VGGNet(2014年) 网络特点 发散思考 GoogLeNe ...

最新文章

  1. 树莓派 之 Screen
  2. web访问 FastDFS 方法思路
  3. UA MATH563 概率论的数学基础1 概率空间2 可列状态空间
  4. spring+springMvc+struts的SSH框架整合
  5. B.The Tortoise and the Hare 长春
  6. centos 下安装mysql
  7. 贝塞尔曲线之爱心点赞代码全解析!| CSDN 博文精选
  8. Dxg——[版本管理工具Git SVN]开发笔记整理分类合集【所有的相关记录,都整理在此】
  9. protel 99se 层次原理图的切换
  10. GAN原理,优缺点、应用总结
  11. 微信小程序如何引入视频插件,解决文娱资质问题(uni-app 同样适用) 解决bindtimeupdate 不生效问题!
  12. 李奇霖:通道业务山穷水尽 券商资管何去何从?
  13. MySQL auto_increment介绍及自增键断层的原因分析
  14. onlyoffice 搭建
  15. 论文提要“Beyond Frontal Faces: Improving Person Recognition Using Multiple Cues”
  16. 展锐Android11安兔兔显示的光圈值修正
  17. 我认识的林家翘先生---致敬伟大的我国数学家
  18. Google Play关键词排名优化
  19. Java常见面试题—final 在 java 中有什么作用?
  20. 在服务器上利用mmdetection来训练自己的voc数据集

热门文章

  1. NAACL’21 | 来看如何让模型学会因为所以但是如果
  2. 硬核推导Google AdaFactor:一个省显存的宝藏优化器
  3. 使用Cloud Studio在线编写、调试和管理Spring Boot应用
  4. 会议 | 2018年全国知识图谱与语义计算大会(CCKS 2018)
  5. 科普 | 知识图谱相关的名词解释
  6. 设计模式之观察者模式在Listview中的应用
  7. 论文笔记(Social Attentional Memory Network:Modeling Aspect- and Friend-level Differences in Recom-)
  8. Exploiting the Syntax-Model Consistency for Neural Relation Extraction(关系抽取,语法模型,跨领域关系抽取
  9. redis和memcached相比的独特之处
  10. Object.prototype的成员介绍