本文分享自百度开发者中心微软亚研院:如何看待计算机视觉未来的走向?

先说一个现象:在深度学习的驱动下,计算机已经在多个图像分类任务中取得了超越人类的优异表现。但面对一些不寻常的图像,以“深度”著称的神经网络还是无法准确识别。

再说一个现象:人类的视觉系统是通过双眼的立体视觉来感知深度的。通过大量实际场景的经验积累以后,人类可以在只有一张图像的情况下,判断图像中物体的前后距离关系。

因此,计算机视觉有一种未来走向是:“借用”人类视觉的特点,设计模型。

以领域为例。在计算机视觉领域,单目深度估计试图模拟人类的视觉,旨在在只有一张图像作为输入的情况下,预测出每个像素点的深度值。单目深度估计是 3D 视觉中一个重要的基础任务,在机器人、自动驾驶等多个领域都具有广泛的应用,是近年来的研究热点。

目前通用的解决方案是依赖深度学习强大的拟合能力,在大量数据集上进行训练,试图获取深度估计的能力。这一“暴力”解法尽管在某些特定数据集的测试场景上取得了优异的结果,但是网络的泛化能力较差,很难迁移到更一般的应用情形,无法适应不同的光照条件、季节天气,甚至相机参数的变化。其中一个具体的例子就是,相同的场景在不同光照条件下的输入图像,经过同一个深度估计网络,会出现截然不同的预测结果。

造成这一结果的原因在于,从人类感知心理学的相关研究中可以发现人的视觉系统更倾向于利用形状结构特征进行判断,而卷积神经网络则更依赖纹理特征进行判断。

例如,给定一只猫的图像,保留猫的轮廓,再使用大象的纹理去取代猫的皮毛纹理,人类倾向于认为图像的类别是猫,但是网络却会判定为大象。这种不一致性,会导致网络强行学习到的规律和人类不一致,很难完成对人类视觉系统的模拟。具体到深度估计领域,图像的纹理变化,例如不同的光照、天气、季节造成的影响都会对模型产生较大的影响。

图1:(a)大象纹理图像;(b)猫图像;©用大象纹理取代猫皮毛纹理的图像。图片来源:https://openreview.net/pdf?id=Bygh9j09KX

另一个更为严重的问题,是网络容易根据局部的颜色信息来进行判断,而不是根据图像整体的布局。比如,深度网络会把前方路面上的白色卡车误认为是白云,将较近距离的卡车判断为较远距离的云,这种误判在自动驾驶场景中非常致命,会导致车辆无法对白色卡车进行合理规避,酿成严重事故。

将人类视觉用于深度估计

如何解决上述两个“致命”问题,从而提高深度神经网络的泛化能力?

尽管“误判”问题可以通过扩大训练数据集来缓解,但是收集数据本身会带来大量的人力、物力成本。而使用计算机图形图像学技术虽然可以以较低的成本生成大量的训练数据,但是由于合成数据和真实数据存在色彩色调不一致的情况,所以合成数据集上训练的深度估计网络也很难泛化到实际应用场景中。

因此,微软亚洲研究院的研究员们提出了一个更通用的解决思路:模仿人类视觉系统。相关工作“S2R-DepthNet: Learning a Generalizable Depth-specific Structural Representation”(论文链接:https://arxiv.org/pdf/2104.00877.pdf) 已被 CVPR 2021 接受。通过结合人类的视觉系统特点,该工作探究了网络进行单目深度估计的本质,并赋予了网络强大的深度估计泛化能力。

具体的研究思路是:考虑到人类视觉系统更依赖结构信息来进行感知,例如人可以从仅包含结构信息的草图中获取场景的深度信息,研究员们通过对图像中的结构信息和纹理信息进行解耦,先提取图像中的结构信息,去除无关的纹理信息,再基于结构信息进行深度估计。

这样设计的深度估计网络去除了对纹理信息的影响,可以做到更强的泛化能力。论文中的模型(S2R-DepthNet, Synthesic to Real Depth Network),仅在合成数据上进行训练,不接触任何目标域的真实图像,所得到的模型无需任何额外操作就可以直接在实际的数据集上取得很好的深度估计效果。该方法远超基于域迁移(Domain Adaptation)的方法。

S2R-DepthNet 的网络结构为了获得深度特定的结构表示,利用提出的结构提取模块 STE 从图像中提取出通用的结构表征,如图2所示。可是此时得到的结构表示是一个通用的并且低级的图像结构,其中包含了大量与深度无关的结构信息。例如平滑表面的结构(车道线或者墙上的照片)。


图2:整体网络架构

所以研究员们进一步提出了一个深度特定的注意力模块 DSA 去预测一个注意力图,以抑制这些与深度无关的结构信息。由于只有深度特定的结构信息输入到了最终的深度预测网络中,因此,训练“成熟”的 S2R-DepthNet 泛化能力极强,能够“覆盖”没见过的真实数据。

STE 模块目的是为了从不同风格的图像中提取领域不变的结构信息。如图3所示,STE 模块包含了一个编码器 Es 去提取结构信息,和一个解码器 Ds 去解码编码的结构信息到结构图。


图3:STE 模块编码器 Es

训练结构图如图4所示,研究员们利用了图像到图像转换的框架去训练 STE 的编码器 Es。而为了使得网络可以适应多个风格的图像,并将通用的图像结构从图像中解耦出来,研究员们用一个风格数据集Painter By Numbers (PBN)作为目标域,合成数据作为源域,通过共有的结构编码器和两个私有的风格编码器,分别编码出源域和目标域的结构信息和风格信息。再利用图像自重建损失、潜层特征自重建损失和对抗损失结合的方式将结构信息和风格信息解耦。通过这种方式训练的结构编码器可以编码出通用的结构信息。

图4:真实图像和合成图像的结构图展示

为了训练 STE 模块的解码器,研究员们在其后加了一个深度估计网络,通过对预测的深度施加损失,便可以通过结构图预测出深度图。此外研究员们还用了一个启发性的损失函数,施加在结构图上,以突出结构图中深度相关的区域。如以下公式所示。

提取出的结构图是通用的结构图,不但包含深度相关的结构信息,同时也包含与深度无关的结构信息,因此通过提出深度相关注意力模型预测注意力图,可以有效地抑制与深度无关的结构信息。由于结构编码器中包含了多个 IN 层,导致其损失了很多判别特征,很难包含语义信息,因此设计的深度相关注意力模块使用了大量的膨胀卷积,可以有效在保持分辨率的情况下增大感受野。

通过上述注意力模块,研究员们可以得到与深度相关的结构化表示。直接输入到深度估计网络中,便可进行深度预测,从而在不同领域之间进行迁移。

研究员们可视化了学到的通用结构表示和深度特定的结构表示,如图2所示,即使合成数据和真实数据在图像上有明显的不同,学到的结构图和深度特定的结构表示也可以共享很多相似性。

该方法的量化结果如表格1所示。域迁移方法在使用合成数据训练的过程中,加入了目标域的真实场景图像,此方法在训练过程中只用了合成数据图像,已取得了显著的泛化能力的提升。其原因在于抓住了深度估计任务结构化表示的本质特征。


表1:合成数据到真实数据深度估计结果

研究员们提出的结构化表征方法更复合人类视觉系统的特点,因此可以将其推广到其它任务,例如图像分类、图像检测和图像分割等。同时,研究员们也将整个训练过程进行了简化,将所有的结构化表征学习通过一个基于 ResNet 的 backbone 网络来进行实现,通过在 ImageNet 上训练,该模型在多个下游任务(分类、检测和分割)的测试中,均取得了目前最优的模型泛化能力。其相关工作已投稿 NeurIPS 2021,论文和代码将于近期公开。
论文标题:S2R-DepthNet: Learning a Generalizable Depth-specific Structural Representation
地址:https://arxiv.org/pdf/2104.00877.pdf
代码:https://github.com/microsoft/S2R-DepthNet

期待你的加入
百度开发者中心已开启征稿模式,欢迎开发者进入了不起的开发者活动进行投稿,优质文章将获得丰厚奖励和推广资源。

微软亚研院:如何看待计算机视觉未来的走向?相关推荐

  1. 微软亚研院CV大佬代季峰跳槽商汤为哪般?

    整理 | 夕颜 出品 | AI科技大本营(ID:rgznai100) 近日,知乎上一篇离开关于MSRA(微软亚洲研究院)和MSRA CV未来发展的帖子讨论热度颇高,这个帖子以MSRA CV执行研究主任 ...

  2. 微软亚研院创研论坛CVPR2020分享会 圆桌会议 内容小记

    微软亚研院创研论坛CVPR2020分享会 圆桌会议 内容小记 今天观看了微软亚研院举办的 创研论坛 CVPR2020 论文分享会,分享会邀请了计算机视觉领域多个子领域的大佬们分享已发表的CVPR202 ...

  3. 无需Grouping,中科大和微软亚研院提出Group-Free的三维物体检测方法,性能远超之前最好方法。...

    ©PaperWeekly 原创 · 作者|刘泽 学校|微软亚洲研究院实习生 研究方向|计算机视觉与深度学习 无需 Grouping,中科大和微软亚研院提出 Group-Free 的三维物体检测方法,性 ...

  4. 传微软亚研院停招国防七子+北邮实习生,18所「实体清单」高校也在劫难逃?...

      转载于 新智元   编辑:桃子 时光 snailnj [新智元导读]听说微软亚洲研究院要停招国防七子及北邮学生了?根据北邮人论坛上讨论,事实却是如此.那么,究竟为何? 一觉醒来,着实大睁眼. 网传 ...

  5. 微软亚研院:CV领域2019年重点论文推荐

    点击我爱计算机视觉标星,更快获取CVML新技术 微软亚洲研究院是国内顶级CV研究机构,众多CV黑科技的诞生地,2020年始,亚研院盘点了2019年CV领域重点论文,大部分附有开源代码,希望对大家有帮助 ...

  6. 微软亚研院20周年独家撰文:数据智能的现在与未来

    文:微软亚洲研究院软件分析组 来源:雷锋网 摘要:今年是微软亚洲研究院(MSRA)20周年,站在这个大节点上,MSRA副院长张冬梅以及她的团队写了这篇有关数据智能的文章,对该领域的发展和未来进行梳理. ...

  7. 有什么推荐的计算机视觉项目?来自微软亚研院的清单

    点击我爱计算机视觉标星,更快获取CVML新技术 微软亚洲研究院产出了很多计算机视觉黑科技,也有大量关注度极高的高质量开源项目,对于热爱CV的同学来说,以下这波推荐不容错过. 另外文末52CV举办&qu ...

  8. “遇事不决,量子力学”?微软亚研院开源时空预测开源工具:FOST,应对各行业共性预测需求!...

    关注公众号,发现CV技术之美 (本文阅读时间:7分钟) 编者按:2020年新冠疫情肆虐全球,为了控制疫情蔓延,找到应对措施,美国疾病控制中心公布了大量疫情相关数据,向全世界顶级科研机构救助,希望科学家 ...

  9. 微软亚研院 CVPR 2021 9篇视觉研究前沿进展

    本文转载自微软研究院AI头条. 编者按:作为世界顶级的 AI 会议,CVPR 一直引领着计算机视觉与模式识别技术领域的学术与工业潮流.今年的 CVPR 于6月19日至25日在线上举办.在此,为大家精选 ...

最新文章

  1. socket sock inet_sock 等关系
  2. ML 03、机器学习的三要素
  3. python 常用PEP8规范
  4. phpcmsV9视频模块插件 - 手把手开发教程
  5. leetcode题库10--正则表达式匹配
  6. JS学习:第一周——NO.1预解释
  7. Bailian2737 大整数除法【大数】
  8. 20多个Maven命令和选项(备忘单)
  9. oracle服务器端怎么打开监听_Oracle11g监听器(Listener)的一些基础知识
  10. cd在linux命令意思,linux的cd .. 和cd / 命令分别是什么意思?
  11. Codeforces Round #490 (Div. 3) C. Alphabetic Removals
  12. VScode淡绿色护眼设置
  13. Android攻城狮OptionsMenu
  14. 哇哦,它让美味随心所“鲜”
  15. 痛心!又一中产家庭倒下,为什么我建议你不要轻易买保险?
  16. 自定义UDF、UDAF、UDTF函数
  17. 我好像解决部分猫盘刷群晖后掉IP的问题了
  18. scrapy分布式碰到的一些问题和解决方案
  19. python label 边框_Python Tkinter LabelFrame标签框架
  20. Live800:企业如何选择在线客服系统解决方案?

热门文章

  1. DevExpress的更新
  2. 更新maven一直在更新_不更新app,就可以一直派单了?闪送政策早知道
  3. yarn配置日志聚合:将日志都聚集到某一台服务器
  4. k8s四种port解析:nodePort、port、targetPort、containerPort
  5. jenkins更改默认端口
  6. kibana操作elasticsearch:修改数据
  7. Oracle创建简单视图案例
  8. SSL四次握手的过程
  9. Hadoop大数据--Mapreduce程序运行并发度
  10. 权限控制相关数据表分析和创建