泡泡点云时空,带你精读点云领域顶级会议文章

标题:Complexer-YOLO: Real-Time 3D Object Detection and Tracking on Semantic Point Clouds

作者:Martin Simon, Karl Amende, Andrea Kraus, Jens Honer,Timo S¨ amann, Hauke Kaulbersch and Stefan Milz Valeo Schalter und Sensoren GmbH

来源:arxiv 2021

编译:黄群军

审核:lionheart

转载:泡泡机器人SLAM

摘要

Complexer-YOLO:基于语义点云的实时三维目标检测与跟踪三维目标的精确检测是计算机视觉中的一个基本问题,在自动驾驶、AR/VR以及机器人领域中都起到巨大的作用。在本文中,基于自动驾驶领域最为先进的3D目标检测与视觉语义分割技术,我们提出了一种新的融合神经网络。此外,我们还引入了尺度旋转平移分子(SRTs),这是一种快速且高度参数化的对比目标检测效果的评估指标,它将我们的推理时间提高了20%同时促使训练时间减半。在此基础上,我们将最先进的在线多目标特征跟踪技术应用于目标测量中,进一步提高了利用时间信息的准确性和鲁棒性。我们在KITTI上的实验表明,我们在所有相关类别中都取得了与最新技术相同的结果,同时保持了性能和准确性的折衷,并且仍然实时运行。此外,我们的模型是第一个融合视觉语义和三维目标检测的模型。

主要贡献

1. 视觉类特征:结合了基于相机的快速语义分割生成的可视逐点类特征

2. 体素化输入:扩展Complex-YOLO处理具有可变尺寸深度而不是固定RGB贴图的体素化输入特征

3. 真正的3D预测:扩展回归网络以预测3D框的高度和z偏移,以在三个维度上处理目标。

4.刻度-旋转-平移分数(SRT):考虑到检测到的对象的3DoF姿势(包括偏航角,例如宽度,高度和长度),我们引入了SRT,这是一种用于3D盒子的新验证指标,明显比IoU更快。

5.多目标跟踪:在线特征跟踪器的应用与检测网络分离,可以基于实际的物理假设进行结合时间的跟踪和目标实例化。

6.实时功能:尽管语义分割,3D对象检测(例如多目标跟踪)方面有最新的成果,但我们提供了新的具有出色的全面实时功能的跟踪管道。可以将管道直接引入感知城市风光的每辆自动驾驶汽车中。

算法结构

下图为Complexer-YOLO处理管道:

A.点云预处理

每个体素,在其3D空间中至少存在一个点,并且对前置相机可见,每个体素都填充有从范围[1、2]中的语义映射中提取的归一化类值。

B.深度和颜色渲染

通过步长2的卷积来替换最大池化层,并添加残差联接层。总共有49个卷积层。此外,我们加入目标高度h和地面偏移z作为目标回归参数,并将二者合并到多单元损失函数中。

在训练过程中,通常使用IoU来对比检测值和地面真值。但是,在比较旋转边框时,以上参考值存在缺点。如果两个边框的大小和位置相同,角度相差π 这两个边框之间的IoU是1,这意味着它们完全匹配。显然不是这样,因为两个边框之间的角度存在最大的差异。因此,在训练一个网络时,它不会因为预测这样的边框而受到惩罚甚至鼓励。这将导致对目标方向的错误预测,同时计算三维空间中旋转边框的精确IoU也是一项耗时的任务。

为了克服这两个问题,我们引入了一个新的高度参数化的简单评价指标称为缩放旋转平移分数(SRTs)。

所有之前的分数都在区间[0,1]内,可以使用简单的加权平均值和惩罚点组合成最终分数(Ssrt)。

SRT与网络必须完成的三个子任务(旋转、位置、大小)完美地结合在一起,以便预测具有偏航角的3D边框。

C.LMB RFS中的扩展目标模型

在LMB更新步骤中,每个预测目标与时间步的每个测量相关联,并且根据所定义的测量模型执行更新。

主要结果

Abstract

Complexer-YOLO: Real-Time 3D Object Detection and Tracking on Semantic Point Clouds Accurate detection of 3D objects is a fundamental problem in computer vision and has an enormous impact on autonomous cars, augmented/virtual reality and many applications in robotics. In this work we present a novel fusion of neural network based state-of-the-art 3D detector and visual semantic segmentation in the context of autonomous driving. Additionally, we introduce Scale-Rotation-Translation score (SRTs), a fast and highly parameterizable evaluation metric for comparison of object detections, which speeds up our inference time up to 20% and halves training time. On top, we apply state-of-the-art online multi target feature tracking on the object measurements to further increase accuracy and robustness utilizing temporal information. Our experiments on KITTI show that we achieve same results as state-of-the-art in all related categories, while maintaining the performance and accuracy trade-off and still run in real-time. Furthermore, our model is the first one that fuses visual semantic with 3D object detection.

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、orb-slam3等视频课程)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

Complexer-YOLO:基于语义点云的实时三维目标检测与跟踪相关推荐

  1. 【Stereo R-CNN 解读】基于立体R-CNN的自动驾驶三维目标检测

    摘要 本文充分利用立体图像中的稀疏.密集.语义和几何信息,提出了一种用于自动驾驶的三维目标检测方法.我们的方法,称为 Stereo R-CNN,扩展了 Faster R-CNN 用于立体输入,以同时检 ...

  2. CVPR2021|CenterPoint :基于点云数据的3D目标检测与跟踪

    图1:网络流程图 代码.论文地址:在公众号「3D视觉工坊」,后台回复「CenterPoint」,即可直接下载. 前言: 该文章是Center-based系列工作(CenterNet.CenterTra ...

  3. ICCV2019论文点评:3D Object Detect疏密度点云三维目标检测

    ICCV2019论文点评:3D Object Detect疏密度点云三维目标检测 STD: Sparse-to-Dense 3D Object Detector for Point Cloud 论文链 ...

  4. 分割点云数据_3D点云深度学习综述:三维形状分类、目标检测与跟踪、点云分割等...

    3D点云学习( Point Clouds)作为近年来的研究热点之一,受到了广泛关注,每年在各大会议上都有大量的相关文章发表.当前,点云上的深度学习变得越来越流行,人们提出了许多方法来解决这一领域的不同 ...

  5. 基于多视角融合的夜间无人车三维目标检测

    基于多视角融合的夜间无人车三维目标检测 人工智能技术与咨询 来源:<应用光学>,作者王宇岚等 摘 要:为了提高无人车在夜间情况下对周围环境的物体识别能力,提出一种基于多视角通道融合网络的无 ...

  6. 目标检测YOLO实战应用案例100讲-基于激光雷达点云的三维目标检测算法研究

    目录 基于激光雷达点云的三维目标检测算法研究 基于投影图的方法 基于点云的多模态融合方法

  7. DL之Yolov3:基于深度学习Yolov3算法实现视频目标检测之对《我要打篮球》视频段进行实时目标检测

    DL之Yolov3:基于深度学习Yolov3算法实现视频目标检测之对<我要打篮球>视频段进行实时目标检测 目录 输出结果 设计思路 核心代码 相关文章 成功解决AttributeError ...

  8. YOLO V1 实时的目标检测 论文翻译

    YOLO V1 实时的目标检测 论文翻译 注:学习记录用 摘要 我们提出了一种新的目标检测方法 YOLO.先前关于目标检测的工作重新使用分类器来执行检测. 相反,我们将目标检测框架作为一个回归问题,以 ...

  9. 自动驾驶系统进阶与项目实战(三)基于全卷积神经网络的点云三维目标检测和ROS实战

    自动驾驶系统进阶与项目实战(三)基于全卷积神经网络的点云三维目标检测和ROS实战 前面入门系列的文章中我介绍了几种点云三维分割/目标检测模型,在做点云预处理上,有通过球面投射(SqueezeNet)得 ...

最新文章

  1. 面试题总结16 对一个整数开根号
  2. Java 集合系列(1): Collection架构
  3. 68)deque数组
  4. 构建简单spring boot 项目
  5. 一个用Axure开发的安卓Android智能交通app的mockup
  6. C语言switch怎么算,超级新手,用switch写了个计算器程序,求指导
  7. Mosquitto感知客户端上下线的方法
  8. 浅谈 MVC3 WebMail 发送邮件
  9. python雷达信号处理,信号处理之功率谱原理与python实现
  10. 不容错过的Multisim14.0语言设置!!
  11. Unity学习01-unity物体移动三种方式
  12. Velocity之vm页面注释
  13. 河北大学计算机网络卷子,河北大学计算机网络试卷
  14. Cobbler 自动装机系统
  15. 中学计算机课教具,中学教师20余载自制教具 “变废为宝”让课堂易懂
  16. 电流模架构Bandgap设计与仿真
  17. 多地力推企业上云,大力发展工业互联网|中机智库
  18. Grid布局练习案例
  19. 【物联网】老程序教你一招,10行代码让超声波模块秒变声控开关
  20. 常用页面代码html

热门文章

  1. 通过grub硬盘安装centos7
  2. python 基础
  3. 不插即用!配备微信网页授权模块的CodeIgniter应用脚手架
  4. live555的编译及使用
  5. NO.80 禅道使用分享第九期:测试部门缺陷管理的新需求
  6. HDFS小文件问题及解决方案
  7. 一起谈.NET技术,VS2010测试功能之旅:编码的UI测试(3)-操作对象的识别原理...
  8. 现代化 Web 应用开发实战
  9. 业务系统性能问题分析和诊断
  10. 最近和Nginx杠上了!