标题:Unsupervised Depth Completion From Visual Inertial Odometry

作者:Alex Wong , Xiaohan Fei , Stephanie Tsuei , and Stefano Soatto

来源:2020 IEEE International Conference on Robotics and Automation (ICRA)

编译:林只只

审核:柴毅,王靖淇

转载:泡泡机器人SLAM

摘要

本文介绍了一种可以由相机运动和稀疏深度推断出稠密深度的方法,使用视觉惯性里程计系统估算深度。与使用来自激光雷达或结构化光传感器的点云的其他方案不同,我们只有几百到几千个点,不足以获得场景拓扑。我们的方法首先构造场景的分段平面脚手架,然后使用它与图像以及稀疏点一起推断密集深度。我们使用类似于“自我监督”的预测性交叉模态准则,跨时间测量光度一致性,前后姿势一致性以及与稀疏点云的几何兼容性。我们还展示了第一个视觉惯性+深度数据集,我们希望它能够对相关研究有所帮助,结合视觉和惯性传感器的互补优势。为了将我们的方法与先前的工作进行比较,我们采用了无监督的KITTI深度补全基准,在该基准中,我们获得了最先进的性能。

图1 在提出的VIO数据集上使用视觉惯性里程计(VIO)进行深度补全(最好以5X的彩色观看)。左下:来自VIO的稀疏重建(蓝色)和摄像机轨迹(黄色)。高亮显示的区域被压缩并在右上方放大。左上方显示的是同一区域的图像作为输入,并通过我们的方法与稀疏深度图像融合。右下角的同一视图仅显示稀疏点,不足以确定场景的几何形状和拓扑。

图2 系统图(最好以5X彩色观看)。我们首先根据VIO估计的稀疏深度来构建基架。然后将基架与图像一起作为输入送入调整网络以产生输出。注意:位姿网络(蓝色)仅在一种操作模式下需要,并且仅在训练中使用。在其他操作模式下,将使用VIO位姿。基架模块(红色)不需要参数,这使我们采用轻量级的两阶段方法。

图3 学习调整过程(最好以5X彩色观看)。我们的网络学习调整输入基架。绿色矩形区域标出了在训练过程中用于比较的区域。网络先学习拷贝输入,接着学习融合RGB图像的信息以调整来自基架的近似深度(请参阅第1行行人和第2行路牌)。

图4 对KITTI基准进行定性评估。从上到下:输入图像和稀疏深度,[1]的结果,我们的结果。结果取自KITTI在线测试服务器。误差图中的暖色表示较高的误差。绿色矩形突出显示区域以进行详细比较。我们总体上表现更好,特别是在薄的结构和较远的区域。[1]显示出了与扫描线相似的伪影,并且在较远的区域显示了“圆圈”(用红色突出显示)。

图5 在TUM-VI上的定性结果(最好以2X彩色观看)。我们将方法应用于TUM-VI,并使用密度级别为0.015%的稀疏深度输入获得了结果。与KITTI和VOID不同,TUM-VI图像是单色的,并带有高度失真的鱼眼镜头相机模型,该模型在训练中得到了补偿。彩条显示深度范围。

图6 我们的模型在KITTI上的误差特征。横坐标表示用Velodyne测量的稀疏数据点的距离,其中所有数据点的百分比以红色显示;蓝色曲线显示了给定距离处估计深度的平均绝对误差,其中第5个和第95个百分位数围住了浅蓝色区域。

图7 VOID基准上的定性评估。上:输入的RGB图像。下:稠密深度图像反向投影为3D,从另一个视角上色与观测。

图8 VOID数据集上的RGB+D图像示例(最好以5X色彩观看)。彩条显示了深度范围。

表1 误差指标

表2 KITTI深度补全基准

表3 KITTI深度补全消融实验

表4 VOID深度补全基准和消融实验

表5 在VOID不同的稀疏深度稠密度上的深度补全

Abstract

We describe a method to infer dense depth from camera motion and sparse depth as estimated using a visual-inertial odometry system. Unlike other scenarios using point clouds from lidar or structured light sensors, we have few hundreds to few thousand points, insufficient to inform the topology of the scene. Our method first constructs a piecewise planar scaffolding of the scene, and then uses it to infer dense depth using the image along with the sparse points. We use a predictive cross-modal criterion, akinto “self-supervision,” measuring photometric consistency across time, forward-backward pose consistency, and geometric compatibility with the sparse point cloud. We also present the first visual-inertial + depth dataset, which we hope will foster additional exploration into combining the complementary strengths of visual and inertial sensors. To compare our method to prior work, we adopt the unsupervised KITTI depth completion benchmark, where we achieve state-of-the-art performance.

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近3000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

基于视觉惯性里程计的无监督深度补全方法相关推荐

  1. 距离-视觉-惯性里程计:无激励的尺度可观测性(ICRA2021)

    Range-Visual-Inertial Odometry: Scale Observability Without Excitation 作者:Jeff Delaune,David S. Baya ...

  2. 基于关键帧的RGB-D视觉惯性里程计

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 本文转自|计算机视觉工坊 论文信息:Chu C , Yang S ...

  3. <论文阅读>用于 3D 点线和平面的视觉惯性里程计框架 A Visual Inertial Odometry Framework for 3D Points, Lines and Planes

    被疫情包围了!在家多看看论文吧- 论文地址:A Visual Inertial Odometry Framework for 3D Points, Lines and Planes [摘要]:恢复连续 ...

  4. 视觉惯性里程计 VIO

    视觉惯性里程计 VIO - Visual Inertial Odometry 视觉−惯性导航融合SLAM方案 视觉惯性SLAM专栏 VINS技术路线与代码详解 VINS理论与代码详解0--理论基础白话 ...

  5. 视觉惯性里程计 综述 VIO Visual Inertial Odometry msckf ROVIO ssf msf okvis ORB-VINS VINS-Mono gtsam

    视觉惯性里程计 VIO - Visual Inertial Odometry 视觉−惯性导航融合SLAM方案 博文末尾支持二维码赞赏哦 _ 视觉惯性SLAM专栏 VINS技术路线与代码详解 VINS理 ...

  6. 计算机视觉方向简介 | 视觉惯性里程计(VIO)

    VIO-SLAM Visual-Inertial Odometry(VIO)即视觉惯性里程计,有时也叫视觉惯性系统(VINS,visual-inertial system),是融合相机和IMU数据实现 ...

  7. 用于机器人导航辅助的6自由度姿态估计的平面辅助视觉惯性里程计

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 Plane-Aided Visual-Inertial Odometry for 6-DOF Pose ...

  8. HybVIO: 突破实时视觉惯性里程计的极限

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 作者丨paopaoslam 来源丨泡泡机器人SLAM 标题:HybVIO: Pushing the L ...

  9. 视觉惯性里程计(VIO)

    视觉惯性里程计(VIO) 本文是 Forster et al. 的阅读笔记,自己补充了一点基于鱼眼相机的噪声传递内容. 概述 使用视觉和惯性部件可以分别定位目标.双目相机通过在像素平面捕捉目标.确定相 ...

最新文章

  1. js 改变change方法_Linux 中改变主机名的 4 种方法 | Linux 中国
  2. python的列表元素输出
  3. 关于hard-negative mining
  4. 怎么导出插件_不会插画没关系,插件帮你快速搞定
  5. 9 SD配置-企业结构-分配-给公司代码分配销售组织
  6. python将excel导入oracle,使用Python将Excel文件导入到Oracle数据库里
  7. 巴菲特午宴中标者孙宇晨与王小川隔空互怼 还要对赌100个比特币?
  8. python 类初始化参数校验_python之类的任意数量参数初始化
  9. 使用SharedPreference保存用户数据的步骤
  10. eclipse连接MySQL,进行增删改查
  11. Linux 中断(IRQ/softirq)基础:原理及内核实现
  12. 罗格斯大学电子与计算机工程,罗格斯大学电子和计算机工程理学硕士研究生申请要求及申请材料要求清单...
  13. Python数据挖掘课程 八.关联规则挖掘及Apriori实现购物推荐
  14. Hybrid eye center localization using cascaded regression and hand-crafted model fitting
  15. Java开发erp系统,高级面试题+解析
  16. 常用的Python3关键词提取方法
  17. 苹果企业证书发布ipa,使用gitee存放plist文件
  18. c++笔记(class)练手项目:暗网杀手排名系统
  19. lsdyna如何设置set中的node_list_如何使用定速巡航功能 图文解说一看就会!
  20. ardupilot/arduplane/attitude.cpp 姿态控制解析

热门文章

  1. 2017年2月18日 K-means
  2. java多线程 -- 原子量 变量 CAS
  3. Arcgis for JS之Cluster聚类分析的实现
  4. [BTS]BizTalk学习之Functoid篇(ID Cross-References)
  5. 安全攻防技能——安全基础概念
  6. 前端 要了解是的事情
  7. 横空出世,比Visio快10倍的画图工具来了。
  8. 为什么说混合云是新基建的流行架构?文末彩蛋!
  9. 清华大学硕士程序员,纠结选开发还是转算法,烦死了!
  10. 一次I/O问题引发的P0重大故障[改版重推]