深度学习的可解释性——Striving For Simplicity: The All Convolution Net
Striving For Simplicity: The All Convolution Net 是ICLR 2015的一篇论文,作者Jost Tobias Springenberg , Alexey Dosovitskiy , Thomas Brox, Martin Riedmiller
这个方法来自于ICLR-2015 的文章《Striving for Simplicity: The All Convolutional Net》,文中提出了使用stride convolution 替代pooling 操作,这样整个结构都只有卷积操作。作者为了研究这种结构的有效性,提出了guided-backpropagation的方法。
本文抛弃了以往物体检测CNN网络中的池化层和全连接层,通过使用步长更大的卷积层来代替池化以及使用卷积核为1的卷积层来代替全连接层,在cifar-10和cifar-100上取得了很好的效果,并在imageNet上有很好的竞争力。
用于目标识别的大多数现代卷积神经网络(CNN)使用相同的原理构建:交替卷积和最大池化层,接着是少量完全连接的层。我们使用卷积网络从小图像重新评估对象识别的现有技术,质疑管道中不同组件的必要性。我们发现,在一些图像识别基准测试中,最大池化可以简单地由具有增加的步幅的卷积层代替,而不会损失精度。根据这一发现 - 并在最近的寻找简单的网络结构其他工作基础上 - 我们提出了一种新的架构,它只包含卷积层,并在几个物体识别数据集(CIFAR-10,CIFAR-100, ImageNet)。为了分析网络,我们引入了一种新的“反卷积方法”变体,用于可视化CNN学习的特征,可以应用于比现有方法更广泛的网络结构。
对于池化层作用的完整解释很难给出,作者假定池化层通过以上三个方面来对CNN的性能产生帮助:
1.p-norm使CNN的表示更具不变性(invariant)
2.降维使高层能够覆盖输入层的更多部分
3.feature-wise的特性(相对于特征混合的卷积层)更容易优化
首先来看看 pooling, why pooling can help in CNNs:通过池化实现的空间维数降低使得在更高的层中覆盖更大的输入部分成为可能
那么我们可以有2中方法得到去除pooling但保留spatial dimensionality reduction
1)我们可以移除每个池化层,并相应地增加之前的卷积层的步长。
2)我们可以用步长大于1的普通卷积替换池层。对于一个k=3,r=2的池化层,我们可以用一个对应的stride和kernel的卷积层取代,输入个数输出个数一样。)
第一个方法有一个缺陷
1)我们显著减少了池化层之前的卷积层的重叠。它相当于一个池操作,其中只考虑左上角的特征响应,可能导致较不准确的识别。
第二个方法则没有这个问题
对于全连接层:
如果最上面卷积层的单元所覆盖的图像区域覆盖了足以识别其内容(即我们要识别的对象)的一部分图像,那么完全连接的层也可以用简单的1×1卷积替换。
前面已经提到了论文网络模型相较于以往CNN的不同之处,在这里进行说明:
1.使用stride大于1的卷积层代替以往CNN中的池化层(下采样层)
2.使用filter大小为1*1的卷积层代替全连接层
整个网络模型完全只有卷积层,在softmax层之前使用全局平均。
深度学习的可解释性——Striving For Simplicity: The All Convolution Net相关推荐
- [深度学习论文笔记][Visualizing] Striving for Simplicity: The All Convolutional Net
Springenberg, Jost Tobias, et al. "Striving for simlicity: The all convolutional net." arX ...
- pytorch 模型同一轮两次预测结果不一样_2020年的最新深度学习模型可解释性综述[附带代码]...
最近low-level vision的炼丹经常出现各种主观评测上的效果问题,无法定位出其对于输入数据的对应关系,出现了问题之后很难进行针对性解决. 这个时候一个很自然的问题就是,都2020年了,深度学 ...
- 万字长文概览深度学习的可解释性研究
↑ 点击蓝字 关注视学算法 作者丨王小贱@知乎 来源丨https://www.zhihu.com/column/buaabigcity 编辑丨极市平台 本文仅用于学术分享,如有侵权,请联系后台作删文处 ...
- 详解深度学习的可解释性研究(上篇)
作者 | 王小贱 来源 | BIGSCity知乎专栏 摘要:<深度学习的可解释性研究>系列文章希望能用尽可能浅显的语言带领大家了解可解释性的概念与方法,以及关于深度学习可解释性工作的研究成 ...
- 干货 | 深度学习的可解释性研究(一):让模型「说人话」
在这篇文章中: 可解释性是什么? 我们为什么需要可解释性? 有哪些可解释性方法? 在建模之前的可解释性方法 建立本身具备可解释性的模型 在建模之后使用可解释性性方法作出解释 关于 BIGSCity 参 ...
- 深度学习模型可解释性的研究进展_化盈盈
写在前面: 这篇文献提出的方法对我的工作帮助不是太大,但可以扩展可解释性的理解. 1 摘要 深度学习在很多人工智能应用领域中取得成功的关键原因在于, 通过复杂的深层网络模型从海量数据中学习丰富的知识. ...
- 深度学习的可解释性方向的研究是不是巨坑?
链接:https://www.zhihu.com/question/341190239 编辑:深度学习与计算机视觉 声明:仅做学术分享,侵删 本人是19fall入学phd一枚,即将决定未来的研究方向, ...
- Striving For Simplicity: The All Convolution Net
Striving For Simplicity: The All Convolution Net 是ICLR 2015的一篇论文,作者Jost Tobias Springenberg , Alexey ...
- Striving For Simplicity: The All Convolution Net 简析
转载[https://blog.csdn.net/qinqbaobei/article/details/54092619] Striving For Simplicity: The All Convo ...
最新文章
- Linux的19 个装B的命令,记得搂一遍!!!
- 加强原始创新和基础研究的前提:三项破解之策
- JavaScript之Promise
- Web安全测试之XSS
- C语言-实现矩阵的转置-随机函数产生随机数并赋予数组中-190222
- redis api 中文文档_我的Redis学习资料库
- Python一键生成国庆出行攻略,助你出门远游嗨不停!
- 什么是web前端?Web前端好入门吗?
- novell.directory.ldap获取邮箱活动目录
- nurbs曲线拟合程序_NURBS曲线DeBoor算法(Grasshopper数学插件)
- 人口流动趋势matlab,数学建模-人口模型-人口预测
- 微信订阅号改回列表显示
- 【20200207】【lyk】TJOI2019 唱、跳、rap、篮球题解
- WinSCP(SFTP客户端) v5.13.3中文版
- JAVA_HOME查看和设置
- 百度奖学金获得者徐立恒:执着创造价值
- 【软件工程课后习题】
- 《途客圈创业记:不疯魔,不成活》一一2.3 早期产品
- 离子引擎驱动的无声飞机原型成功试飞;华为测试谷歌 Fuchsia OS
- 计算机游戏与动画技术课程,计算机游戏动画教学大纲.pdf