文章目录

  • Preface
  • Abstract
  • Contributions
  • Diagnostic Experiments
  • Pipeline
  • Revisiting Center Detection
  • Training Samples
  • IoU Oriented Optimization
  • Experimental Results

Preface

[CVPR2021] Ma X, Zhang Y, Xu D. Delving into localization errors for monocular 3d object detection[C]. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 4721-4730.
Paper
Code
单目3d目标检测-monodle解析

Abstract

通过密集的诊断实验(intensive diagnostic experiments),量化了单目3D目标检测中每一个子任务的影响,发现定位误差(localization error)是主要的限制因素。同时,本文还分析了定位误差背后的潜在原因以及带来的影响,并提出了三种策略:首先,重新审视了 2D 框中心与 3D 对象投影中心之间的偏差,这是一个导致定位准确性低的重要因素。其次,观察到使用现有技术准确定位远距离对象几乎是不可能的,而这些样本会误导学习网络。为此,建议从训练集中删除此类样本以提高检测器的整体性能。最后,还提出了一种面向 3D IoU 的损失,用于对象的大小估计,不受“定位误差”的影响

Contributions

  • 首先,对单目 3D 检测进行了密集诊断实验。除了发现“定位错误”是限制单目 3D 检测的主要问题,此外,还量化了每个子任务的整体影响
  • 其次,针对远距离目标提出了两种策略来提高整体检测性能,即hard codingsoft coding
  • 最后,提出了一种面向 3D IoU 的损失,用于对象的大小估计,不受“定位误差”的影响

Diagnostic Experiments

为了定量地分析问题,本文进行了密集的诊断实验,通过逐步用真值替代baseline中的预测值的方法,提出了以下三个发现:

  • 定位误差是限制单目 3D 检测的关键因素。此外,除了深度估计外,检测3D物体的投影中心在恢复物体的3D位置方面也起着重要作用。为此,回顾了2D框中心与3D对象的投影中心之间的偏差,证实了保持2D检测相关分支的必要性,通过这种方式,2D 检测被用作相关的辅助任务来帮助学习与 3D 检测共享的特征,这与SMOKE中丢弃 2D 检测的现有工作不同
  • 观察到检测精度随着距离的增加而显著下降,认为由于不可避免的定位错误,几乎不可能使用现有技术准确地检测远距离对象,为此,提出了两种方案:从训练集中去除远距离样本,以及降低了这些样本的训练损失权重
  • 观察到除了定位误差之外,像3D框的尺寸估计也是限制3D目标检测的重要因素,现有方法倾向于独立优化 3D 边界框的每个组件。然而,未能考虑每个损失项对最终度量(即3D IoU)的贡献可能会导致次优优化。为了缓解这个问题,提出了一种用于 3D 大小估计的 IoU 定向损失。新的面向 IoU 的损失根据其对 3D IoU 的贡献率动态调整样本级别每一方的损失权重

Pipeline

MonoDLE论文中没有给出网络的完整框架,而是基于baseline做的若干实验,其中baseline是基于centernet的非常经典的结构:

  • Backbone:DLA34
  • Neck:DLAUp
  • 2D Detection:3个分支
    • 第一个分支输出heatmap预测分类分数以及2D 框中心的粗坐标 c = ( u , v ) \mathbf{c}=(u,v) c=(u,v),注意,Baselibe的2D框中心粗坐标,用的是标签中2D框中心作为GT值来监督,在后文中坐着针对这一点有专门的讨论,选择了3D投影坐标作为粗坐标的监督
    • 另一分支输出预测的2D粗坐标与真实坐标之间的偏移 o i = ( Δ u i , Δ v i ) \mathbf{o}^{\mathbf{i}}=\left(\Delta u^i, \Delta v^i\right) oi=(Δui,Δvi)
    • 最后一个分支预测2D框的size
  • 3D Detection:3个分支
    • 第一个分支输出2D粗坐标与真实的3D投影坐标 c w = [ x w y w ] T = c + o w \mathbf{c}^\mathbf{w}=\left[x^w y^w\right]^T=\mathbf{c}+\mathbf{o}^{\mathbf{w}} cw=[xwyw]T=c+ow之间的偏移 o w = ( Δ u w , Δ v w ) \mathbf{o}^{\mathbf{w}}=\left(\Delta u^w, \Delta v^w\right) ow=(Δuw,Δvw)
    • 第二个分支预测3D框的size
    • 最后一个分支预测偏航角 γ \gamma γ
  • Loss:分为7个部分
    • 分类损失:Focal Loss
    • 2D 中心点损失:L1 Loss
    • 2D size损失:L1 Loss
    • 3D 深度估计损失:
    • 3D 中心点损失:L1 Loss
    • 3D heading angle:multi-bin Loss
    • 3D size:普通的L1 Loss & 本文提出的 IoU Loss

Revisiting Center Detection

这一部分就讨论了一件事:用于粗中心坐标 c = ( u , v ) \mathbf{c}=(u,v) c=(u,v)的监督应该是什么?本文的答案是3D投影中心坐标

  • 使用3D投影的中心坐标,有助于估计粗略的中心感知 3D 几何信息,并与估计 3D 对象中心的任务更相关,这是定位问题的关键

  • 上图展示了Center definition和Multi-task learning不同设置的效果,其中’PC’, ‘RF’和 ‘MT’ 分别表示’projected 3D center’, ‘refinement’(预测2D中心和3D中心之间的offsets), and ‘multi-task learning’(2D和3D检测联合进行)
  • ab说明了预测offsets有助于补偿2D中心和3D中心之间的偏差
  • bd说明了使用3D 投影中心作为粗坐标的监督可以进一步提升检测性能
  • cd说明了Multi-task learning有助于3D检测,同时d的2D检测的精度也优于c,说明由3D检测生成2D包围框可能会降低2D检测结果的质量

  • 上图定性比较了,分别使用2D Center和3D 投影中心作为粗坐标监督的影响,可以看出使用3D 投影中心作为监督效果更好

    • 第二行为2D Center监督下,网络输出粗坐标的特征可视化结果
    • 第三行为3D 投影中心监督下,网络输出粗坐标的特征可视化结果
    • 其中GT用circle显示,以区别网络输出的特征图
  • 本文保留了2D检测分支,认为2D 检测可以作为辅助任务,有助于学习更好的 3D 感知特征

Training Samples

这一部分讨论了忽略远距离目标有助于提高3D目标检测的整体性能,为此提出了两个对应的方案:

  • Hard coding:当样本的深度超过给定值,就直接舍弃,不会在训练阶段使用
    w i = { 1 if  d i ≤ s 0 if  d i > s w_i= \begin{cases}1 & \text { if } d_i \leq s \\ 0 & \text { if } d_i>s\end{cases} wi​={10​ if di​≤s if di​>s​
  • Soft coding:距离越远,样本的权重值越小, c c c和 T T T分别为调整对称性和弯曲度中心的超参数,本文中默认为 c = 60 , T = 1 c=60,T=1 c=60,T=1
    w i = 1 1 + e ( d i − c ) / T , w_i=\frac{1}{1+e^{\left(d_i-c\right) / T}}, wi​=1+e(di​−c)/T1​,

  • 上图展示了Training Samples的定性分析结果,评价指标为Car类别的 A P 40 AP_{40} AP40​
  • 可以看到hard encoding, s=60效果最好
  • 值得注意的是,这些远距离样本占比非常少,在7481张图片的trainval数据集中,超过60和65米的目标仅占比4.5%和2.7%
    代码中对应实现如下lib\datasets\kitti\kitti_dataset.py
object_num = len(objects) if len(objects) < self.max_objs else self.max_objs
for i in range(object_num):  ...# ignore the samples beyond the threshold [hard encoding]  threshold = 65  if objects[i].pos[-1] > threshold:  continue...
  • 目前我只在代码中找到hard coding,并没有soft coding的处理
  • 关于Training Samples的Issue:https://github.com/xinzhuma/monodle/issues/9

IoU Oriented Optimization

这一部分讨论如果直接使用IoU loss,localization相关的子任务的loss(如depth估计)会压倒其他任务(如3D size预测),但是如果分开用多个loss来优化,又没有把每个组件和最终结果联系起来。本文提出对3D size估计的IoU oriented optimization,即对IoU贡献越大,给予的权重越大:

  • 标准的3D size Loss为: L size  ′ = ∥ s − s ∗ ∥ 1 \mathcal{L}_{\text {size }}^{\prime}=\left\|\mathbf{s}-\mathbf{s}^*\right\|_1 Lsize ′​=∥s−s∗∥1​
  • 本文将其修改为: L size  = ∥ ( s − s ∗ ) s ∥ 1 \mathcal{L}_{\text {size }}=\left\|\frac{\left(\mathbf{s}-\mathbf{s}^*\right)}{\mathbf{s}}\right\|_1 Lsize ​= ​s(s−s∗)​ ​1​
  • 可以看到新的损失,幅度发生了变化(相当于进行了归一化)
  • 为了进行补偿,本文首先动态生成补偿权重: w s = ∣ L size  ′ / L size  ∣ w_s=\left|\mathcal{L}_{\text {size }}^{\prime} / \mathcal{L}_{\text {size }}\right| ws​=∣Lsize ′​/Lsize ​∣
  • 然后计算最终的3D size的损失函数: w s ⋅ L size  w_s \cdot \mathcal{L}_{\text {size }} ws​⋅Lsize ​,其均值等于标准3D size损失函数的均值
    代码中对应的实现如下lib\losses\dim_aware_loss.py
def dim_aware_l1_loss(input, target, dimension):  dimension = dimension.clone().detach()  loss = torch.abs(input - target)  loss /= dimension  with torch.no_grad():  compensation_weight = F.l1_loss(input, target) / loss.mean()  loss *= compensation_weight  return loss.mean()

Experimental Results

本文提出的三种改进策略的累计提升效果如下所示:

  • 评价指标为Car类别的 A P 40 AP_{40} AP40​(BEV/3D)
  • p:表示使用3D 投影中心作为粗中心坐标的监督
  • I:表示使用对3D size估计的IOU oriented optimization
  • s:表示忽略远距离目标

【单目3D目标检测】MonoDLE论文精读与代码解析相关推荐

  1. 首个实时单目3D目标检测算法:RTM3D,代码将开源

    o 点击我爱计算机视觉标星,更快获取CVML新技术 基于单目图像的3D目标检测是在输入RGB图像的情况下估计目标的3D包围框,在自动驾驶领域非常有用. 今天来自中科院沈阳自动化所等单位的学者公布论文提 ...

  2. 【单目3D目标检测】MonoFlex论文精读与代码解析

    文章目录 Preface Abstract Contributions Pipeline Problem Definition Decoupled Representations of Objects ...

  3. 【单目3D目标检测】FCOS3D + PGD论文解析与代码复现

    文章目录 前言 FCOS3D 概述 主要创新点 主要框架结构 回归目标 损失函数 推理过程 2D引导的多层3D预测 2D高斯分布的3D中心度 实验设置 源码复现 PGD 概述 主要创新点 深度估计 主 ...

  4. 【单目3D目标检测】SMOKE论文解析与代码复现

    文章目录 yacs Introduction Usage SMOKE Preface Abstract Contributions Pipeline Backbone Head Branch Orie ...

  5. MonoCon:使用辅助学习的单目3D目标检测框架(AAAI 2022)

    作者丨慕弋云子@知乎 来源丨https://zhuanlan.zhihu.com/p/455897310 编辑丨3D视觉工坊 本文已被收录在单目3D目标检测的综述文章中.如果你对单目3D目标检测的相关 ...

  6. 浅述单目3D目标检测

    作者丨慕弋云子@知乎 来源丨https://zhuanlan.zhihu.com/p/432135656 编辑丨3D视觉工坊 三维目标检测是一个相对上游.比较基础却又新兴的任务领域.得益于自动驾驶和2 ...

  7. DD3D:基于预训练的单目3D目标检测

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 来源丨CV研习社 作者丨元气满满的打工人 文章导读 导读:3D目标检测的主要应用场景就是自动驾驶,虽然 ...

  8. ICCV2021|单目3D目标检测真的需要伪激光雷达吗?

    作者丨agent@知乎 来源丨https://zhuanlan.zhihu.com/p/406918022 编辑丨3D视觉工坊 Paper: arxiv.org/pdf/2108.0641 Code: ...

  9. 登顶KITTI!Mix-Teaching:适用于单目3D目标检测的半监督方法【清华大学】

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 作者丨汽车人 来源丨自动驾驶之心 论文标题:Mix-Teaching: A Simple, Unifi ...

最新文章

  1. AntV的花瓣图中鼠标悬浮提示信息去掉与修改
  2. Error:Execution failed for task ':APP:transformClassesWithDexForDebug'...
  3. flume linux 命令,flume启动命令 · Mr.Deng’s Blog
  4. bulk批量下载影像
  5. 004python与mongoDB交互
  6. go中select用法详解
  7. mysql操作符_MySql 中的=操作符
  8. mysql 编译 bsion_mysql编译安装
  9. js vue 创建一个div_Vue.js 创建一个 CNODE 社区(1)
  10. 荐书丨大型网站技术架构演进与性能优化
  11. 顺丰科技机器学习面试
  12. Windows下使用Git+rsync构建文件同步工具
  13. windows提示“为了对电脑进行保护,已经阻止此应用”的解决方案 mmc.exe
  14. 局域网雨云蠕虫病毒的处理
  15. NET Core实战项目之CMS 第九章 设计篇-白话架构设计
  16. 海尔消费金融暂停“首付贷”
  17. BT宝塔面板设置网站自动云备份——备份到七牛云或腾讯COS
  18. BUUCTF_misc_[WUSTCTF2020]find_me
  19. mysql删除学生记录_mysql删除重复记录语句,删除除了 id 号不同,其他都相同的学生冗余信息...
  20. Android类似IOS的果冻效果

热门文章

  1. 歌曲:后来的我们 歌手:品冠
  2. 服务器系统和操作系统有什么区别
  3. mysql auto_increment 重置_如何重置MySQL中的AUTO_INCREMENT?
  4. 【经典面试题】小程序与H5、APP、公众号的区别到底是什么?
  5. java 余弦定理_Java實現余弦定理計算文本相似度
  6. 微信小程序生成图片分享朋友圈
  7. 水滴pin安卓版apk_财务报销管理系统
  8. 叠片式过滤器原理概述
  9. 本题要求编写程序,输出整数152的个位数字、十位数字和百位数字的值。
  10. chrome 本地文件 翻译工具