©PaperWeekly 原创 · 作者|刘泽

学校|微软亚洲研究院实习生

研究方向|计算机视觉与深度学习

无需 Grouping,中科大和微软亚研院提出 Group-Free 的三维物体检测方法,性能远超之前最好方法。

论文标题:

Group-Free 3D Object Detection via Transformers

论文链接:

https://arxiv.org/pdf/2104.00678

代码地址:

https://github.com/zeliu98/Group-Free-3D

近年来,从三维点云中直接检测三维物体得到了越来越多的关注。为了从不规则的点云中提取物体的特征,目前的方法通常都会借助点聚合操作(Point Grouping)为某个候选物体聚合对应的点,进而可以从聚合的点中提取候选物体的特征。

人们提出了许多不同的聚合策略,Frustum-PointNet [1] 首先使用二维图像生成二维候选框,再将二维候选框包含的三维空间中的点聚合在一起;Point R-CNN [2] 直接生成三维候选框,并将三维候选框中的点聚合在一起;VoteNet [3] 则通过 Hough Voting 将 voting 到同一或空间相近的物体中心的点聚合在一起。

尽管这些人工设计的聚合策略在目前的三维物体检测器中起到了至关重要的作用,但真实场景的复杂和多样性往往会导致这些点聚合方法产生错误(例如图1),并损害检测器的性能。

▲ [图1] 在人工设计的点聚合方法中,RoI-Pooling 的蓝色框和 Voting 的蓝色球中的所有点都被聚合到同一候选物体,从而产生了错误。本文的无需聚合(Group-Free)方法可以自动学习每个点对每个物体的贡献,从而可以缓解手工设计的聚合方法的弊端。

本文提出了一种简单而有效的方法从点云中直接检测三维物体,而不需要借助手工设计的点聚合策略。我们方法的核心在于使用 Transformer [4] 中的注意力机制来利用点云中的所有点来计算物体特征,每个点对物体的贡献通过网络训练而自动学习获得。

为了进一步发挥 Transformer 架构的优势,本文还提出了迭代式边界框预测(Iterative Box Prediction)与多阶段预测整合(Ensemble Multi-stage Predictions),进一步提升了物体检测的准确度。

我们提出的方法在两个被广泛使用的三维物体检测基准测试 ScanNet V2 和 SUN RGB-D 中都取得了目前最好的表现。其中,SUN RGB-D 取得了 62.8 mAP@0.25 和 42.3 mAP@0.5,ScanNet V2 则取得了 69.1mAP@0.25 和 52.8 mAP@0.5,远超之前的方法。

方法介绍

在基于点云的三维物体检测中,检测器的输入是个点的集合 ,目标是检测出点云中三维物体的边界框以及物体类别。

本文的整体架构如图 2 所示,它主要由三部分构成:一个主干网络(backbone network),用来提取点云中每个点的特征;一个初始候选物体采样模块(initial object candidates sampling module);一组堆叠的注意力模块(stacked attention modules),用于从所有点中迭代提取并改进候选物体的特征。

▲ [图2] 整体架构示意

1.1 骨干网络(Backbone Network)

为了与其他方法做公平的比较,本文选取了 PointNet++ [5] 作为主干网络,并采用了一个编码-解码器的结构。它以 N 个点作为输入,首先通过 4 阶段的集合抽象层(set abstraction layer)逐渐降采样 8 倍(例如得到 256 个点),再通过特征传播层(feature propagation layer)上采样 2 倍(例如得到 1024 个点)。

通过骨干网络最终产生 2 倍降采样的每个点的维特征,这些特征会进一步被初始候选物体采样模块与堆叠的注意力模块所使用。

1.2 初始候选物体采样(Initial Object Candidate Sampling)

本文通过自底向上的方式从点云中直接采样初始的候选物体,并提供了一种简单高效的采样方式:K 最近点采样(k-Closest Points Sampling,KPS)。

在本方法中,每个点会去分类他们属于某个物体的概率,并采样分类概率较高的点。分类的标签由点离真值框中心的距离决定,每个真值框最近的 k 个点定义为正样本,其余点为负样本。

1.3 基于Transformer解码器进行迭代的物体特征提取和边界框预测(Iterative Object Feature Extraction and Box Prediction by Transformer Decoder)

利用采样得到的初始候选物体,本文采用 Transformer 作为解码器,利用点云上的所有点来计算每个候选物体的特征。Transformer 由一系列堆叠的多头自注意力(multi-head self-attention)模块和多头交叉注意力(multi-head cross-attention)模块以及前馈网络(feed-forward network,FFN)构成,如图 3 所示。

其中自注意力模块在不同物体之间交互信息,而交叉注意力模块则可以利用点特征更新物体特征,前馈网络则进一步变换每个物体的特征。

▲ [图3] 注意力模块示意

在原始的 Transformer 中,空间位置编码(spatial encoding)是固定的。而在本文中,我们提出了一种迭代改进式的空间位置编码方法。

具体来说,本文在每个解码器阶段都会进行边界框的预测,而上一阶段的预测框可被用来产生当前阶段同一物体改进后的位置编码,同时该位置编码还会与当前阶段解码器的输出特征结合,作为下一阶段解码器的输入特征。

在实验中,我们发现这种迭代式的空间位置编码方法可以在 ScanNet V2 中提升 1.6 mAP@0.25 和 5.0 mAP@0.5。

多阶段的预测还带了另外一个好处,即可以将不同阶段的预测结果进行整合。具体来说,不同阶段的预测框将被组合在一起进行非极大值抑制(NMS)并得到最后的预测结果。本文发现在 SUN RGB-D 上,该方法可以提高 3.9 mAP@0.25。

实验分析

2.1 系统比较

表 1 展示了 ScanNet V2 上的系统比较结果。

▲ [表1] 在 ScanNet V2 上与目前最先进方法的比较。4×PointNet++ 表示使用了 4 个独立的PointNet++;PointNet++w2× 表示骨干网络的宽度增大一倍;L 为解码器深度,O 为候选物体个数。

可以看到,在使用标准 PointNet++ 作为骨干网络的情况下,本文的基础模型(6 层解码器以及 256 个候选物体)达到了 67.3 mAP@0.25 和 48.9 mAP@0.5,比之前使用同样骨干网络的最好的方法分别高 2.85.5。进一步提高至 12 层解码器,mAP@0.5 的差距进一步拉大到 6.3

在使用更强的骨干网络(PointNet++w2×)以及更多候选物体(512 个)的情况下,本文放大达到了69.1 mAP@0.25 和 52.8 mAP@0.5,远远超出之前最好方法。

表 2 展示了 SUN RGB-D 上的系统比较结果。

▲ [表2] 在 SUN RGB-D 上与目前最先进方法的比较,其中 imVoteNet 使用了额外的 RGB 图像数据。

在 SUN RGB-D 上,本文的基础模型达到了 62.8 mAP@0.25 和 42.3 mAP@0.5,超过之前所有只用点云作为输入的方法。

2.2 与点聚合方法的比较

RoI-Pooling 以及 Voting 是两种被广泛使用的点聚合方法,表 3 展示了本文方法与这两种方法的比较。可以看到,RoI-Pooling 效果好于 Voting,但仍然落后本文方法 1.2 mAP@0.25 与 4.1 mAP@0.5,这证明了我们方法相较于基于点聚合方法的优势。

▲ [表3] 与基于点聚合的方法的比较

2.3 可视化结果

图4展示了不同解码器阶段检测结果的定性展示。可以看到随着解码器变深,检测结果越来越精确。

▲ [图4] 不同解码器阶段检测结果的定性展示

图 5 展示了不同解码器阶段学习到的交叉注意力权重,我们可以看到低阶段往往集中在相邻点上,而通过多次改进模型将注意力更多集中在物体本身,从而可以提取更好的物体特征。

▲ [图5] 不同解码器阶段交叉注意力权重的可视化。绿点表示参考点,红色表示权重较高区域。

参考文献

[1] Charles R Qi, Wei Liu, Chenxia Wu, Hao Su, and Leonidas J Guibas. Frustum pointnets for 3d object detection from rgbd data. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 918–927, 2018.

[2] Shaoshuai Shi, Xiaogang Wang, and Hongsheng Li. Pointrcnn: 3d object proposal generation and detection from point cloud. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 770–779, 2019.

[3] Charles R Qi, Or Litany, Kaiming He, and Leonidas J Guibas. Deep hough voting for 3d object detection in point clouds. In Proceedings of the IEEE International Conference on Computer Vision, pages 9277–9286, 2019.

[4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017.

[5] Charles Ruizhongtai Qi, Li Yi, Hao Su, and Leonidas J Guibas. Pointnet++: Deep hierarchical feature learning on point sets in a metric space. In NIPS, 2017.

更多阅读

#投 稿 通 道#

 让你的论文被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

???? 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

???? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site

• 所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

无需Grouping,中科大和微软亚研院提出Group-Free的三维物体检测方法,性能远超之前最好方法。...相关推荐

  1. 微软亚研院提出用于语义分割的结构化知识蒸馏 | CVPR 2019

    作者 | CV君 来源 | 我爱计算机视觉 今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文<Structured Knowledge Distillati ...

  2. CVPR 2019 | 微软亚研院提出用于语义分割的结构化知识蒸馏

    点击我爱计算机视觉标星,更快获取CVML新技术 今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文<Structured Knowledge Distilla ...

  3. 微软亚研院:如何看待计算机视觉未来的走向?

    本文分享自百度开发者中心微软亚研院:如何看待计算机视觉未来的走向? 先说一个现象:在深度学习的驱动下,计算机已经在多个图像分类任务中取得了超越人类的优异表现.但面对一些不寻常的图像,以"深度 ...

  4. 微软亚研院CV大佬代季峰跳槽商汤为哪般?

    整理 | 夕颜 出品 | AI科技大本营(ID:rgznai100) 近日,知乎上一篇离开关于MSRA(微软亚洲研究院)和MSRA CV未来发展的帖子讨论热度颇高,这个帖子以MSRA CV执行研究主任 ...

  5. 传微软亚研院停招国防七子+北邮实习生,18所「实体清单」高校也在劫难逃?...

      转载于 新智元   编辑:桃子 时光 snailnj [新智元导读]听说微软亚洲研究院要停招国防七子及北邮学生了?根据北邮人论坛上讨论,事实却是如此.那么,究竟为何? 一觉醒来,着实大睁眼. 网传 ...

  6. 微软亚研院创研论坛CVPR2020分享会 圆桌会议 内容小记

    微软亚研院创研论坛CVPR2020分享会 圆桌会议 内容小记 今天观看了微软亚研院举办的 创研论坛 CVPR2020 论文分享会,分享会邀请了计算机视觉领域多个子领域的大佬们分享已发表的CVPR202 ...

  7. 微软亚研院:CV领域2019年重点论文推荐

    点击我爱计算机视觉标星,更快获取CVML新技术 微软亚洲研究院是国内顶级CV研究机构,众多CV黑科技的诞生地,2020年始,亚研院盘点了2019年CV领域重点论文,大部分附有开源代码,希望对大家有帮助 ...

  8. 训练损失越来越大_无需contrastive学习,微软亚研提基于实例分类无监督预训练方法...

    机器之心发布 机器之心编辑部 在本文中,微软亚洲研究院的研究员和实习生们提出了一个简单且高效的无监督预训练方法--参数化实例分类(PIC).和目前最常用的非参数化对比学习方法不同,PIC 采用了类似于 ...

  9. “遇事不决,量子力学”?微软亚研院开源时空预测开源工具:FOST,应对各行业共性预测需求!...

    关注公众号,发现CV技术之美 (本文阅读时间:7分钟) 编者按:2020年新冠疫情肆虐全球,为了控制疫情蔓延,找到应对措施,美国疾病控制中心公布了大量疫情相关数据,向全世界顶级科研机构救助,希望科学家 ...

最新文章

  1. 朴素、Select、Poll和Epoll网络编程模型实现和分析——Select模型
  2. Chrome v28 会在pwd目录下生成libpeerconnection.log文件
  3. ios传值给js_IOS中plus.ios.implements实现OC方法后,在OC中回调传值后JS端无法正确获取...
  4. ubuntu 14.10 使用fcitx输入法
  5. Cisco PT模拟实验(19) 路由器的NAT功能配置
  6. Oracle中序列(Sequence)详解
  7. unity中单位是米还是厘米_数学单位换算公式口诀
  8. 【剑指offer】链表中环的入口
  9. DevExpress v18.1新版亮点——WPF篇(一)
  10. 错误;找不到或无法加载主类 com.sun.tools.javac.main的解决方案
  11. c语言jni调用外部函数,(转)JNI调用C函数
  12. UML图的画法,简单详细,以实战代码为例子画UML
  13. 2000份简历模板 唯美时尚简约个人简历模板 英文简历模板 简历封面 自荐信下载
  14. 酷睿i7 8750h相当于什么水平 i78750h属于什么级别
  15. 【编译汇编链接】COFF文件及结构说明
  16. 关于结构性金属制品制造行业鼎捷的一体化解决方案
  17. for(int i:nums){.....}的含义
  18. linux可变剪切分析,可变剪切的意义和重要性
  19. 考研英语二计算机词汇,考研英语词汇84分的一些经验
  20. 自动化测试工程师面试简历参考

热门文章

  1. 趣谈哈希表优化:从规避 Hash 冲突到利⽤ Hash 冲突
  2. java设计模式观察者模式_Java设计模式(9)——观察者模式
  3. gitlab mysql 配置_gitlab的安装与修改端口配置
  4. oracle数据库sysaux表空间,如何管理oracle数据库的SYSAUX表空间
  5. python函数映射教学,Python 序列与映射的解包操作
  6. java代码书写易犯错误
  7. Pl/sql 如何将oracle的表数据导出成excel文件?
  8. linux清理swap内容,Linux如何清理swap.buffer及cache等缓存
  9. 鸿蒙上海开发者日直播,华为鸿蒙 OS 开发者日于 4月17 日上海举行
  10. scala java抽象理解_Scala - 抽象类型和隐式参数解析