论文笔记——Dilated Residual Networks(DRN)
论文下载:
https://arxiv.org/pdf/1705.09914.pdf
论文代码:
http://vladlen.info/publications/dilated-residual-networks/
论文摘要:
用于图像分类的卷积网络会逐渐降低图像的分辨率,图像以微小的特征图表现出来,其中原图像场景的空间结构不再可见。这些问题可以通过设置空洞卷积参数(dilation)来缓解,空洞卷积提高了输出特征图的分辨率,而不降低单个卷积核的感受野。
作者表明,在不增加模型深度或复杂性的情况下,扩张型残差神经网络(DRNs)在图像分类方面的表现优于非扩张型残差神经网络。作者提到,进行空洞卷积时,会出现“人为设置网格的现象”(gridding artifacts)。
作者开发了一种去除这些现象的方法,并且将进一步提高DRNs的性能。DRNs在目标定位和语义分割等下游应用中的准确性优势被进一步放大。
空洞卷积:
正常3×3卷积核的卷积过程(stride=2,padding=1),其中卷积核感受野是9个单元,都是相邻紧靠的,成九宫格形状:
空洞3×3卷积核的卷积过程(stride=1,padding=0,dilation=2),其中dilation>1时,便形成空洞卷积,相邻上下左右的两个单元相隔一个单元:
DRNs构建过程:
作者基于一组ResNet网络架构进行构建DRNs,每个架构都由五组卷积层组成,每组的第一层通过跨步进行下行采样。
用g表示每一层的组,f表示卷积核,p表示特征图,i表示层数:
作者主要关注于第四组(g4)和第五组(g5),用dilation=2的卷积代替原来的卷积:
在第五组中(Group5,g5),第二层(i=>2)开始的变化都和第一层一样:
第五组(g5)中后面的层连接两个已被消除的跨层。跨步的消除使它们每个维度的感受野减少了4倍,所以它们的dilation=4:
DRNs模块:
最后一组(g5)的最后一层后经过一个全局平均池化层(Global Average Pooling),一个全卷积层得到分类的输出:
如果想用于分割或者定位,则可以把全局平均池化层(Global Average Pooling)改为其他模块,其中K是1×1卷积:
Degridding现象:
假设原图像只有一个像素(下图白色块),经过空洞卷积后特征图出现了离散的九个像素(白色块):
翻译为“网络伪影”( gridding artifacts),造成的影响是得到的特征图会较为粗糙,呈现细碎的点状分布,结果不够精致:
ResNet中,在第一个7×7的卷积后有一个max pooling,作者发现这个max pooling会导致输出高频高幅值的激活值,这些高幅值的激活就很容易被后面的卷积传播下去,最后在顶层的空洞卷积处形成网格状激活,因此作者使用卷积来代替池化(Removing max pooling)
处理后的为DRN-B-26,特征图看起来也比较平滑了:
作者还在网络的末尾加卷积层,这些卷积层的dilation要比前面g4和g5的小,比如加入一层dilation=2的卷积层与一层正常的卷积层(Adding layers)。
最后作者把最后两层的残差连接去掉,因为残差连接会把底层的网络伪影特征直接传到顶层(Removing resdual connections)。
DRN网络最终结构:
(a)DRN-A是ResNet加dilation得到的。
(b) DRN-BDRN-B是DRN-A去除max pooling加入后两层得到的。
(c)DRN-CDRN-C是DRN-B最后两层去掉残差连接得到的。
实验结果:
ResNet-18及相应DRNs的激活图:
训练好的DRN-C-26内部的特征图:
ImageNet 2012验证集上的图像分类准确率(错误率),越低越好:
ImageNet验证集上弱监督对象定位错误率,越低越好:
城市景观验证集上扩张剩余网络的性能,越高越好:
论文笔记——Dilated Residual Networks(DRN)相关推荐
- 论文笔记 | Wide Residual Networks
Authors Sergey Zagoruyko Nikos Komodakis Sergey Zagoruyko Abstract 网络不断向更深发展,但是有时候为了得到少量的accuracy的增加 ...
- 语义分割--Dilated Residual Networks
DRN:Dilated Residual Networks 收录:CVPR2017(IEEE Conference on Computer Vision and Pattern Recognition ...
- DRN:Dilated Residual Networks(论文解读十四)
Title:Dilated Residual Networks From:CVPR2017 Note data:2019/06/12 Abstract:提出一种有利于分类任务的扩张残差网络DRN. C ...
- 语义分割--Dilated Residual Networks 之转载
Dilated Residual Networks CVPR2017 http://vladlen.info/publications/dilated-residual-networks/ 这里转载了 ...
- Dilated Residual Networks
如何理解空洞卷积(dilated convolution) 『计算机视觉』空洞卷积 1. Background 文章原文可在作者主页阅览:Fisher Yu主页 这篇文章实则是作者将何恺明(Ka ...
- 论文笔记 《Maxout Networks》 《Network In Network》
原文出处:http://zhangliliang.com/2014/09/22/paper-note-maxout-and-nin/ 论文笔记 <Maxout Networks> & ...
- 【论文笔记】SlowFast Networks for Video Recognition
目录 1,摘要 2,介绍 3. SlowFast 网络 3.1 Slow路径 3.2 Fast 路径 3.3 横向连接 3.4 网络实现 参考文献 参考 1,摘要 本论文提出了用于视频识别的SlowF ...
- 论文笔记——Deep Residual Learning for Image Recognition(论文及相关代码)
啊先说一些题外话,在刚刚进入深度学习的时候就在知乎上看到关于何恺明大神的phd的传奇经历.大概就是何大牛顶着光环选手的称号进的MSRA,peer的到第1-2年就已经各种论文刷到飞起,但是何大牛到第三年 ...
- [论文笔记]User-Centric Ultra-Dense Networks for 5G: Challenges , Methodologies, and Directions
前言 本文是我所作的第四篇论文笔记,前三篇都是按照"翻译--笔记"的模式进行,本篇将跳过翻译环节直接进行论文的笔记摘录.原因有以下几点:1.翻译步骤对内容理解很有限,理解主要在笔记 ...
最新文章
- JavaWeb项目第三次总结_成绩查询的实现
- 目标感太弱怎么办?如何做目标管理?
- JavaScript基础学习--事件代理
- 【不同的子序列问题】面试官写个字符串要我求有多少个“bigsai“,我懵了
- 记录一些使用git过程中的bug
- File.Create创建文件后,需要释放…
- linux kvm安装win7,ubuntu14.04 使用kvm安装win7系统
- PHP 超级全局变量
- 年买笔记本的8个小技巧 最适合自己才最好(组图)
- asp.net mysql 增删该查_asp.net 数据库的增删改查
- 谈谈有什么方法可以快捷实现多场景下的线程安全
- android 按钮变形动画,android-动画切换按钮
- 搭建高性能计算环境(九)、应用软件的安装之gaussian 09
- ubuntu 解析控制 PS4手柄
- 淘宝数据魔方技术架构解析阅读心得
- 苹果ipad有哪几款_iPad 已经出品十年了,缅怀一下
- STL容器底层实现数据结构
- 微信朋友圈怎么发文字?微信怎么发朋友圈只发文字?
- 计算机导论基础论文3000字,计算机导论课论文3000字
- 使用scrapy再次爬取猫眼前100榜单电影!
热门文章
- Bitlocker加密,与解除加密
- C# 连接basler相机
- 6 RabbitMQ幂等性问题
- 详解如何批量采集58同城二手房数据及中介联系方式
- 赛效:如何用分轨分离歌曲中的人声和伴奏
- Tensorflow2.0学习笔记(一)北大曹健老师教学视频1-4讲
- 联想拯救者R720加装内存条
- (转载)分享 别人的 职业故事
- ubuntu 系统提示 You are in emergency mode. type “journalctl -xb” to view system logs
- 【弱监督视频异常检测】2019-BMVC-用于改进视频异常检测的运动感知功能