来源:机器学习研究组订阅

在一篇 CVPR 2021 Oral 论文中,来自慕尼黑大学、微软亚研的研究者对胶囊网络和卷积网络进行了全面的对比。一系列实验表明,一些被认为对胶囊网络(CapsNet)至关重要的设计组件实际上会损害它的鲁棒性,而另一些设计则有利于 CapsNet 的鲁棒性。

卷积神经网络取得了很大的成功,也很受欢迎。但是它也并不适合所有的任务。架构上的一些缺陷导致它并不能很好地完成一些任务。

因此,Hinton 和他的同事们提出了胶囊网络 (CapsNet) 作为 CNN 模型的替代。胶囊具有等变性并且输入输出都是向量形式的神经元而不是 CNN 模型中的标量值。胶囊的这种特征表示形式可以允许它识别变化和不同视角。在胶囊网络中,每一个胶囊都由若干神经元组成,而这每个神经元的输出又代表着同一物体的不同属性。这就为识别物体提供了一个巨大的优势,即能通过识别一个物体的部分属性来识别整体。

一直以来,人们普遍认为 CapsNet 比卷积网络更鲁棒。然而,还没有研究对这两个网络进行全面的比较,也不知道 CapsNet 中的哪些组件影响其鲁棒性。

在本文中,来自慕尼黑大学、微软亚研的研究者首先仔细研究了 CapsNet 中不同于图像分类的 ConvNet 网络的特殊设计,揭示了 CapsNet 中五个主要的组成部分:变换过程、动态路由层、挤压函数、除交叉熵损失之外的边际损失以及用于正则化的附加类条件重构损失。除了这些主要差异之外,研究者还对三种鲁棒性进行了全面的消融实验,包括仿射变换的鲁棒性、识别重叠数字的能力和语义表征的紧凑性。

论文地址:http://128.84.4.27/pdf/2103.15459

该研究表明,一些被认为对 CapsNet 至关重要的设计,即动态路由层和变换过程,实际上会损害它的鲁棒性,而另一些设计则有利于 CapsNet 的鲁棒性。基于这些发现,他们通过引入 CapsNet 成功背后的关键组件来增强 ConvNet。与 CapsNet 相比,本文提出的简单 ConvNet 具有更好的鲁棒性。

鲁棒性比较:胶囊网络 VS 卷积网络

在这一部分中,研究者对 CapsNet 的鲁棒性进行了实证研究。在深入研究之前,他们首先介绍了 CapsNet 和 ConvNet 的体系架构。CapsNet 是一种具有动态路由的胶囊网络 [24]。由于对 CapsNet 的研究仍处于初级阶段,将 CapsNet 与 LeNet 类型的 ConvNet——ConvNet-FC 进行了比较。ConvNet-FC 和 CapsNet 如下图 1 所示,输入是 28×28 MNIST 数据集图像。

  • ConvNet-FC:ConvNet 基准是 Conv(256, 5, 1) + Conv(256, 5, 1) + Conv(128, 5, 1) + FC(328) + FC(192) + Softmax(10) );

  • CapsNet:CapsNet 带有动态路由,是 Conv(256, 9, 1) + Conv(256, 9, 2) + 动态路由,后面是一个重构子网络,FC(512) + FC(1024) + FC (28×28)。特征映射是通过两个标准卷积层计算的。

输入仿射变换的鲁棒性

为了检查两种模型的变换鲁棒性,研究者使用流行的基准 [24, 3],其中模型在 MNIST 上训练并在 AffNIST 上测试。数据集示例如下图 2 所示。除了 ConvNet-FC 和 CapsNet 之外,实验中还包括了基准上的 SOTA 模型,即 Aff-CapsNet。它通过消除动态路由和在转换过程中共享转换矩阵来简化 CapsNet。

结果如下表 1 所示,由结果可以得出,在 ConvNet-FC 和 CapsNet 之间存在差距。如文献 [24,3] 所述,CapsNet 优于 ConvNet-FC,Aff-CapsNet 优于 CapsNet。

研究者以 Aff-CapsNet(一个简化的 CapsNet)为基准,对下表 2 中 CapsNet 的组成部分进行了进一步的消融研究。其中,动态路由不利于变换的鲁棒性,这一结果在表 1 中也体现出来。此外,当不使用挤压函数时,CapsNet 必须将胶囊长度回归到极限值(例如 0 或 1),这是一项艰巨的任务,会导致性能不佳。边际损失(margin loss)会略微削弱 CapsNet 的变换鲁棒性,而重构对其没有影响。而非条件重构方法在每次训练迭代中更新所有的胶囊,因此性能略有提高。

基于上述发现,研究者提出了一个新的简单的 ConvNet 基准——ConvNet-Avg。以两个卷积层开始,并以全局平均池化和输出层结束,这也是图像分类中常用的体系架构。利用交叉熵损失对模型进行训练,当模型达到测试性能(99.22%)时停止训练。如表 1 所示,该研究提出的简单的 ConvNet-Avg 在参数较少的情况下取得了略好的性能。

由输入仿射变换的鲁棒性实验可得:

  • 与 ConvNet-FC 相比,CapsNet 在 AffNIST 上以较少的参数获得了更好的测试性能,研究者将差距归因于内核(kernel)大小;

  • 动态路由会损害 CapsNet 的转换鲁棒性。当路由被移除时,统一的平均投票(NoR)能更好地汇集全局信息;

  • 基准 ConvNet-Avg 显著优于 CapsNet。

识别重叠数字

文献 [24] 表明 CapsNet 通过分段能够识别重叠数字。为了检查这个属性,研究者使用 MultiMNIST 数据集进行测试,该数据集是通过将来自不同类的一个数字叠加在另一个数字之上生成的。具体来说,带有数字的 28×28 MNIST 图像,首先在每个方向上移动最多 4 个像素,从而得到 36×36 图像。生成的图像叠加到来自不同类别但相同集(训练数据集或测试数据集)的另一幅图像,具体示例如图 2c 所示。

下表 4 为识别重叠数字的性能结果,其中对 CapsNet 单个组件进行了消融实验。由结果可得,重构子网络有助于提高识别性能。然而,它不一定是类条件的。重构损失使训练过程规范化,使得关于两个数字的信息被编码在特征和高级胶囊中。边际损失可以直接应用于多目标分类任务,其性能优于标准的二值交叉熵损失。重构和边际损失都可以用于增强 ConvNet。

由识别重叠数字实验可以得到:

  • 所有组件有助于 CapsNet 识别重叠数字;

  • 非共享变换矩阵的变换过程和权重投票动态路由带来了较高的建模能力,这本质上有助于 CapsNet 在该任务上取得高性能;

  • 在这个基准测试中,具有相似参数的简单 ConvNetFC(LK)的性能优于 CapsNet,说明 CapsNet 在识别重叠数字方面并不比 ConvNet 更具有鲁棒性。

语义胶囊表征

在 CapsNet 中,当胶囊中的单个元素受到扰动时,重构的图像在视觉上发生相应的变化[24],见下图 4d。视觉上的变化往往对应于人类可以理解的语义对象的变化。在本实验中,研究者探索了哪个组件支持语义表征。由于这一特性主要通过重构子网络来实现,实验中介绍了 3 个模型:ConvNet-CR 、 ConvNet-R 和 ConvNet-CR-SF 。

训练之后,研究者在 160 种激活函数上执行了胶囊扰动实验。在 CapsNet 中,他们通过 0.05 的间隔(范围为[-0.2, 0.2])轻微调整了胶囊表征的一个维度。重建图像如图 4d 所示,可以观察到图像的语义变化,如旋转和笔画粗细。

研究者发现,当在相同的范围内扰动相应函数时,ConvNets 中的重建图像在视觉上几乎保持不变,这可能是单位激活函数的扰动范围太小导致的。所以,他们逐步地扩大范围,直到重建图像无法被识别,这时范围为[-8, 8]。重建图像如图 4a、4b 和 4c 所示。

在下图 5 中,研究者使用具有一个 2D 输入空间和 3 个输出类的示例来说明这些函数的特征。ConvNet-R 从稍微纠缠的特征中重建了输入,在 ConvNet-CR 中,不同类的特征由于自身的类条件性实现了完美的分割。ConvNet-CR-CF 通过进一步挤压向量对特征空间进行限制,这样向量可以留在流形中。

下表 5 展示了各个模型的紧密度得分。研究者推测,正是这些限制提升了表征的紧密度。具体来讲,类条件重建和挤压函数帮助 CapsNet 学习有意义的语义表征,而动态路由甚至造成了损害。这两个组件都可以集成到 ConvNets 中,其中相较于 CapsNets,ConvNet-CR-SF 学习到了更好的语义紧密表征。

由语义胶囊表征实验可得:

类条件重构和挤压函数都有助于 CapsNet 学习有意义的语义表征,而动态路由则会起到相反的效果。这两个组件可以集成到 ConvNet,其中 ConvNet-CR-SF 比 CapsNet 学习到更好的语义紧凑表征。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

Hinton的胶囊网络不太行?CVPR Oral论文:不比卷积网络更「强」相关推荐

  1. 超越EfficientNet,GPU上加速5倍,何恺明组CVPR 2020论文提出新型网络设计范式

    选自arXiv 作者:Ilija Radosavovic等 机器之心编译 机器之心编辑部 近日,何恺明大神组又发了一篇新论文,提出了一种新的网络设计范式.与以往研究不同,他们没有专注于设计单个网络实例 ...

  2. PaddlePaddle训练营——公开课——AI核心技术掌握——第2章机器能“看”的现代技术——源自视觉神经原理的卷积网络简介及深入理解

    源自视觉神经原理的卷积神经网络简介 基于人们对于生物视觉的研究,科学家们给出了在计算机视觉中的具备良好表现的卷积神经网络模型. 卷积神经网络发展概况 1.在这个结构中可以使用反向传播来训练权重. 2. ...

  3. Visualizing and Understanding Convolutional Networks - 可视化和理解卷积网络 - 看懂卷积网络

    Visualizing and Understanding Convolutional Networks 可视化和理解卷积网络 - 看懂卷积网络 Matthew D Zeiler, Rob Fergu ...

  4. sar极化想干矩阵_用于PolSAR图像分类的极化卷积网络

    来源:TGRS 2019 原文:https://arxiv.org/pdf/1807.02975.pdf code:https://github.com/liuxuvip/Polarimetric-S ...

  5. 【图神经网络研究精华】图卷积网络作者Thomas Kipf博士论文公布

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 转载自:机器之心 对于普通人来说,将自己的学位论文公布到社交媒体可能需要点勇气.但 ...

  6. 卷积网络的学习(卷积核,通道,padding,stride等概念)

    1  卷积网络的核心是:可以约减不必要的权值连接,引入稀疏或局部连接,带来权值共享策略大大地减少参数量相对的提升了数据量,从而可以避免过拟合: 具有平移不变性=鲁棒性较好. 优势:参数共享与稀疏连接, ...

  7. 英伟达RTX 3080值不值得抢?在TensorFlow上训练了卷积网络

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:机器之心 AI博士笔记系列推荐 周志华<机器学习> ...

  8. 178页,四年图神经网络研究精华,图卷积网络作者Thomas Kipf博士论文公布

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作分享,不代表本公众号立场,侵权联系删除 转载于:机器之心 AI博士笔记系列推荐 周志华<机器学习>手 ...

  9. 时空编解码器残差多图卷积网络预测OD客流需求

    paper title <Predicting origin-destination ride-sourcing demand with a spatio-temporal encoder-de ...

最新文章

  1. 一名英文不好的程序员的救赎
  2. RDKit | 基于Ward方法对化合物进行分层聚类
  3. Ibatis查询条件对于特殊字符的处理方法
  4. ubuntu中用wine安装office2007
  5. one microblog from 任志强
  6. junit 运行_运行,JUnit! 跑!!!
  7. HTML中直接写js 函数
  8. Null hypothesis TypeⅠerror Type Ⅱ error
  9. 什么是传感器? 传感器由哪几部分组成? 传感器分类?
  10. qss qmenu 设置icon位置大小_实战PyQt5: 125-使用配置文件来保存和恢复应用的设置...
  11. mysql固定某列获取不连续的值_SQL-怎么把一列不规律的值,取出其中连续段的首尾数字?...
  12. 【caffe】caffe采用multistep,绘制loss曲线出错
  13. 干粉灭火器(泡沫灭火器)工作原理
  14. 【Tools】TCP/IP 测试工具——SocketTools
  15. Linux下怎么mount下载宝硬盘为本地目录
  16. 可达编程 [语言题]中国身份证号码校验
  17. 计算等额本本息和等额本金的python代码
  18. PHP 阿里云实人认证
  19. 最小二乘估计,矩阵求导法(正规方程)全推导
  20. 台式计算机品牌及价格,全球十大台式电脑品牌 联想拥有良好的品质和适合的价格...

热门文章

  1. latex 公式转为 word 公式
  2. 更好用的3D打印“活体”墨水来了,合成生物的新工具包!
  3. 数据缺失、混乱、重复怎么办?最全数据清洗指南
  4. 独家 | 是什么让数据科学家从优秀变得伟大?
  5. 经典论文复现 | LSGAN:最小二乘生成对抗网络
  6. 摩尔定律行将就木?AI灵丹助其返老还童!(附论文)
  7. AI开学第一课!CMU深度学习秋季课程开课了(附PPT 、视频)
  8. 人类史上最伟大的 PPT,马斯克的 39 页火星计划PPT
  9. 【Python】一文读懂Python正则表达式常用用法
  10. 绩点1.8成功逆袭!复旦博士林田成为华为第20位「天才少年」