https://www.toutiao.com/a6695148561157325319/

作者:Wieland Brendel
编译:ronghuaiyang

导读

一直以来,对于深度神经网络图像分类,我们认为它提取的是图像的高阶特征,如物体的形状,但是真的是这样吗?好像并不是!

CNNs非常擅长对经过干扰的图像进行分类,但人类却不行

在这篇文章中,我会向大家展示为什么最先进的深度神经网络对混乱的图像仍然能够很好地识别,以及这个现象是如何来帮助揭示DNNs似乎是用非常简单的策略来分类自然图像的。这个研究结果发表在ICLR 2019上,有很多相关的内容:首先,它们表明解决ImageNet比许多人想象的要简单得多。其次,研究结果使我们能够建立更加可解释和透明的图像分类pipelines。第三,他们解释了许多CNNs中观察到的现象,比如说CNNs的分类更加偏向纹理(见我们的其他论文ICLR 2019和相应的博客),CNNs对物体各个部分的空间顺序是忽略的。

bag-of-features模型的好处

在过去,在深度学习之前,自然图像中的物体识别曾经相当简单:定义一组关键的视觉特征(“word”),识别每个视觉特征出现在图像中的频率(“bag”),然后根据这些数字对图像进行分类。因此,这些模型被称为“bag-of-features”模型(BoF模型)。举例来说,假设我们只有两个视觉特征,一个人眼和一个羽毛,我们想将图像分类为“人”和“鸟”类。最简单的BoF模型的工作原理如下:对于图像中的每只眼睛,它将“人类”的证据增加+1。反之,对于图像中的每根羽毛,“鸟”的证据将增加+1。哪个类在整个图像中积累的证据最多,预测结果就是哪个。

简单的BoF模型的一个很好的属性是它的可解释性和透明的决策:我们可以检查对于一个给定的类,哪些图像特征是证据,证据的空间集成非常的简单(相比于深度神经网络中的深度非线性特征集成),所以可以直接的了解模型的决策是怎么做的。

在深度学习开始之前,传统的BoF模型已经非常流行,并且是最先进的,但是由于分类性能不佳,它们很快就失宠了。但是我们确定深层神经网络真的使用了一种和bof模型完全不同的决策策略吗?

深度可解释的bag-of-feature网络(BagNet)

为了验证这一点,我们将BoF模型的可解释性和透明性与DNNs的性能相结合。具体的策略是这样:

  • 把图像分割成小的q x q图像块
  • 把图像块通过一个DNN,获取每个图像块的类别证据(logits)。
  • 把所有图像块的证据加起来,得到一个图像级的决策。

BagNets分类策略:对于每个patch,我们使用一个DNN提取类证据(logits),并对所有patch的类证据总数进行求和

为了以最简单和最有效的方式实现这一策略,我们采用一个标准的ResNet-50结构,并将大部分(但不是所有)3x3卷积替换为1x1卷积。在这种情况下,隐藏在最后一个卷积层中的单位只能“看到”图像的一小部分(即它们的感受野比图像的尺寸小得多)。这避免了图像的显式分区,并且在仍然实现所述策略的同时,尽可能接近标准的CNNs。我们将得到的模型架构称为BagNet-q,其中q表示顶层的感受野域大小(我们测试q = 9,17和33)。BagNet-q的运行时大约是ResNet-50的运行时的2.5倍。

不同patch sizes的BagNets在ImageNet上的性能

即使对于非常小的patch尺寸,BagNets在ImageNet上的性能也令人印象深刻:大小为17 x 17像素的图像特征足以达到alexnet级别的性能,而大小为33 x 33像素的特征足以达到87%的top-5准确率左右。通过更仔细地放置3 x 3卷积和额外的超参数调优,可以获得更高的性能值。

这是我们的第一个主要结论:你可以只使用一组小图像的特征来解决ImageNet。物体形状或物体部件之间的关系等远程空间关系可以完全忽略,对于解决任务是不需要的。

BagNets的一大特点是决策透明。例如,我们现在可以查看哪些图像特征对给定类最具有预测性(参见下面)。例如,鲤鱼通常是用手指在绿色背景上识别的。为什么?因为在这类照片中,大多数都是渔夫像捧着奖杯一样举着鱼竿。当BagNet错误地将图像分类为鲤鱼的时候,通常是因为图像中某个地方的绿色背景上有一些手指。

最多类别证据的图像特征。我们展示了正确预测类的特征(顶部行)和错误预测类的分散注意力的特征(底部行)。

类似地,我们还得到了一个精确定义的热图,它显示了图像的哪些部分对某个决策起了作用。

来自BagNets的热图精确地显示了哪些图像部分导致了这个决定。热图不是估计出来的,但显示了每个图像部分的真实贡献。

ResNet-50和BagNets出人意料的相似

BagNets表明,基于局部图像特征与目标类别之间微弱的统计相关性,可以在ImageNet上获得较高的精度。如果这就足够了,为什么像ResNet-50这样的标准深度网络会学到一些完全不同的东西呢?如果局部图像特征的丰富性足以解决任务,为什么ResNet-50要学习复杂的大尺度的关系,比如物体的形状?

为了验证现代DNNs遵循类似于简单bag-of-feature网络策略的假设,我们测试了不同的resnet、densenet和VGGs对以下BagNets的“签名”:

  • 对于图像特征的空间变换,决策是不变的(只能在VGG模型上测试)。
  • 不同图像部分的修改应该是独立的(就它们对总类证据的影响而言)。
  • 标准CNNs和BagNets的错误应类似。
  • 标准CNNs和BagNets应该对相似的特征敏感。

在所有四个实验中,我们发现CNNs和BagNets的行为惊人地相似。举个例子,在最后一个实验中,我们证明了那些BagNets最敏感的图像部分(例如,如果你遮挡了那些部分)基本上和CNNs最敏感的图像部分是一样的。事实上,BagNets的热图(敏感空间图)比DeepLift等归因方法生成的热图(直接为DenseNet-169计算热图)更能预测DenseNet-169的敏感性。当然,DNNs并不完全类似于BagNets模型,但确实存在一些偏差。特别是,我们发现随着网络的深入,特征的大小和长期依赖性都在增加。因此,与简单的BagNets模型相比,更深的神经网络确实有所改进,但我认为核心分类策略并没有真正改变。

不仅仅是bag-of-features分类

将CNNs的决策看作是一种bag-of-feature策略,可以解释关于CNNs的一些奇怪的观察结果。首先,它可以解释为什么CNNs有如此强的纹理偏向。其次,它可以解释为什么CNNs对图像部分的打乱如此不敏感。它甚至可以解释对抗样本的存在:人们可以在图像的任何地方放置误导信号,CNN仍然能够可靠地接收到该信号,不管这些信号是否适合图像的其他部分。

在我们工作的核心部分,我们表明,CNNs使用自然图像中存在的许多微弱的统计规律进行分类,而不是像人类那样,直接跳到图像各个部分的物体级别的集成来进行分类。其他任务和感知模式也可能是如此。

我们必须认真思考如何构建我们的架构、任务和学习方法来抵消这种统计相关性较弱的趋势。一个角度是改善CNNs从局部小特征向全局特征的归纳偏差。另一个角度是删除或替换网络不应该依赖的特征,这正是我们在另一个ICLR 2019 publication中使用风格转换预处理去除物体的自然纹理所做的工作。

然而,最大的问题之一当然是图像分类本身的任务:如果局部图像特征足以解决这个任务,就没有动力去学习自然界真正的“物理”。我们将不得不重组任务本身,以促使模型学习物体的物理本质。为了让模型能够提取因果依赖关系,这很可能必须超越单纯观察学习输入和输出特征之间的相关性。

综上所述,我们的研究结果表明,CNNs可能遵循一种极其简单的分类策略。这样的发现在2019年仍有可能实现,这一事实突显出,我们对深度神经网络的内部工作机制知之甚少。由于缺乏理解,我们无法从根本上开发更好的模型和架构,从而缩小人类和机器感知之间的差距。加深我们的理解将使我们找到弥补这一差距的方法。这可能非常有效:当我们试图使CNNs偏向于物体的更多物理属性时,我们突然达到了和人类相似的噪声鲁棒性。我期待在我们走向CNNs的道路上有更多令人兴奋的结果,真正了解我们世界的物理和因果性质。

英文原文:https://medium.com/bethgelab/neural-networks-seem-to-follow-a-puzzlingly-simple-strategy-to-classify-images-f4229317261f

图像分类再思考DNN似乎遵循一种令人困惑的简单策略来对图像分类相关推荐

  1. (2019.09) 区块链与游戏结合的再思考

    区块链与游戏结合的再思考 2015年2月份,我在知乎上回答了一个问题:如果使用电子加密貨幣來充當遊戲貨幣體系的一環,會對遊戲有什麽影響? 限于我本人当时的认识,那篇文章只是浅尝辄止了一下各种可能性.在 ...

  2. 2d 蓝图_“蓝图”卷积--对深度可分离卷积的再思考

    论文:Rethinking Depthwise Separable Convolutions: How Intra-Kernel Correlations Lead to Improved Mobil ...

  3. 论文解读二十七:文本行识别模型的再思考

    摘要:本文研究了两个解码器(CTC[1]和 Transformer[2])和三个编码器模块(双向LSTM[3].Self-Attention[4]和GRCL[5]),通过大量实验在广泛使用的场景和手写 ...

  4. SPOOLing技术的再思考

    SPOOLing技术的再思考 @(OS) 首先看什么是SPOOLing. Simultaneous Peripheral Operation On-Line 通过这个名称基本上就可以知道很多事情.外部 ...

  5. 光通信的再思考:5G流量爆发下的数据密度革命

    来源:未来智库 1.投资要件 区别于市场的观点: (1)市场对 5G 时代流量爆发的认知不足.市场认为当前大带宽高流量新应用的爆发趋势尚不明显,当前流量增长需求不清.我们认为,5G 时代的流量的爆发将 ...

  6. 关于第一型曲面积分的再思考

    关于第一型曲面积分的再思考 @(微积分) 有些问题,看着复杂,却很好解.同样,有些问题看着很简单,但是却很难下手.举一个关于第一型曲面积分计算的例子. 第一型曲面积分基础解法要干三件事: 投影 代入 ...

  7. 重读GPDB 和 TiDB 论文引发的 HTAP 数据库再思考

    为什么要再思考? 大家好,我是阿福,之前我在社区 Paper Reading 活动中分享了 Greenplum 团队在 2021年 SIGMOD 上发表的论文:<Greenplum: A Hyb ...

  8. 【深度森林第三弹】周志华等提出梯度提升决策树再胜DNN

    [深度森林第三弹]周志华等提出梯度提升决策树再胜DNN 技术小能手 2018-06-04 14:39:46 浏览848 分布式 性能 神经网络 还记得周志华教授等人的"深度森林"论 ...

  9. 【秒杀下单再思考 】

    秒杀下单再思考 - 由reids数据倾斜问题如何解决引发的思考 问题背景:用db扣减库存+redis.lock解决超卖问题,并发量并不能提很高,考虑redis中扣减库存,秒杀方案:redis.get( ...

最新文章

  1. Nature:要想真正研究宿主-肠道微生物的相互作用,必须将相对定量变成绝对定量...
  2. python训练营免费领取-21天训练营丨Python量化投资打卡第五期!学完押金全返!...
  3. DDNS 的工作原理及其在 Linux 上的实现--转
  4. 解决STM32 SPI 半残废 NSS无法拉高
  5. LOJ#2353 货币兑换
  6. 画验证曲线_椭圆曲线加密算法(ECC)
  7. 自动化运维的正确姿势,你试了也会上瘾 | 社区福利
  8. 看涨戴尔科技的八大原因
  9. linux 内存 实例,linux内存地址分配(示例代码)
  10. 挑战性题目DSCT401:全源最短路径Floyd算法的并行实现
  11. c语言实验报告评语大全,实验报告总结
  12. 推推:产品的规划和商业化分析
  13. 使用consul注册中心要求服务以自定义instance-id形式注册
  14. [转载] 柴静《看见》新书发布会
  15. java碳纤维山地车车架咋样_自行车碳纤维车架值得买吗?它有哪些优缺点?老骑手来给你答案!...
  16. sap委外退料流程图_生产部领退料流程图
  17. 如何搭建Bugzilla
  18. 【做人:一,性格和习惯的重要性[转载]】
  19. 常用软件下载地址汇总
  20. 点击富文本部分文字跳转功能

热门文章

  1. tf.keras.layers.Flatten该网络中的第一层tf.keras.layers.Flatten将图像的格式从2d阵列(28乘28像素)转换为28 * 28 = 784像素的1d阵列。可以
  2. SQL*PLUS命令的使用大全
  3. rowbounds分页oracle,Oracle使用MyBatis中RowBounds实现分页查询功能
  4. 开源数据库技术分享及未来展望|CIC 真·全明星阵容
  5. 这 23 道题,全世界的数学家花费 100 年时间,只解答了一半
  6. [TEAP] HTML5简史
  7. mask-conditional contrast-GAN
  8. 从安装Kafka服务到运行WordCount程序
  9. 22张深度学习精炼图笔记总结(附原版下载)
  10. GNN、RL强势崛起,CNN初现疲态?这是ICLR 2021最全论文主题分析