Urban Radiance Fields:城市辐射场
摘要:这项工作的目标是根据扫描平台捕获的数据执行 3D 重建和新视图合成,这些扫描平台通常部署用于城市室外环境中的世界地图绘制(例如,街景)。给定 RGB 图像序列和通过室外场景移动的相机和扫描仪获取的激光雷达扫描,生成了一个模型,可以从中提取 3D 表面并合成新的 RGB 图像。该方法扩展了神经辐射场,它已被证明可以在受控设置中为小场景合成逼真的新颖图像,并使用新方法来利用异步捕获的激光雷达数据,解决捕获图像之间的曝光变化,并利用预测图像分割来监督密度在指向天空的射线上。这三个扩展中的每一个都在街景数据的实验中提供了显着的性能改进。

创新点:
1、实验中将激光雷达信息与RGB 信号结合起来。 通过仔细融合这两种模式,可以补偿大规模和复杂场景中视点的稀疏性。引入了一系列基于激光雷达的损失,可以对建筑物等固体结构和体积层进行准确的表面估计。
2、自动分割天空像素并定义一个单独的圆顶状结构,为指向天空的相机光线提供明确定义的监督信号。
3、模型通过估计每个相机的仿射颜色变换来自动补偿不同的曝光。

数据

本文研究了如何从自动驾驶和世界地图应用中收集的数据中重建三维表面并合成城市空间的新视图。
图像数据:街景图像是由多个鱼眼摄像头收集的,这些摄像头连接到一个徒步旅行者捕捉装置上。 每个摄像机都用估计的内参和相对于徒步者的位姿来校准。 当徒步旅行者在世界各地移动时,从每个摄像机以大约2Hz的速度收集图像。 图像在一个全局坐标系中自动定位,使用从运动中得到的结构和GPS信息,能够组装与每个像素相对应的原点为o和方向为d的相机射线。 现实世界的城市场景中有移动的物体,它们的位置随着时间的推移而变化(行人、汽车、骑自行车的人等)。 如果不处理,这些对象可能导致训练的神经网络,产生重影和模糊。 由于动态往往与语义相关,对每幅图像运行一个预先训练的语义分割模型,然后屏蔽最突出的运动类别–人的像素
雷达数据:除了成像传感器,还包含飞行时间VLP16激光雷达传感器,这些传感器主动发射光来测量到表面的距离。 与代表密集入射光样本的成像数据不同,激光雷达数据是一个扫描的时间戳3D线段序列,由起始和终止位置表示。 单个激光雷达段表明,在时间戳期间,发射射线穿过的空间没有与不透明表面相交。 做了一个简化的假设,激光雷达探测到的大多数表面都是静止的,比如建筑物和道路,所以忽略时间戳信息,并假设在整个捕获过程中空的空间是空的。 这可以模拟激光雷达射线类似于照相机射线,起源为ol,方向为dl,终止距离为zl

方法

用场景级神经网络参数θ和每幅图像曝光参数{βi}定义了一个城市辐射场(URF)。 给定场景的图像和激光雷达数据,通过最小化以下损失来优化URF:

1 Photometric-based Losses(基于光度的损失)

光度损失项类似于原始的NeRF方程,但也取决于估计的每幅图像曝光参数{βi}(个人认为这里的图像曝光参数类似于nerf in the wild里的外观潜在优化向量的作用,强调每张图片光景外观的不同)

用两种方法修改体绘制方程,每种方法分别介绍,公式如下

1、Exposure compensation (曝光补偿)

映射系统获取的图像通常采用自动白平衡和自动曝光的方法,这使得Lrgb的计算变得复杂。之前的文章使用latent codes潜在优化编码对每个图像分别学习,将图像无关的场景辐射映射到图像相关的辐射,该方法的缺点是:用每个图像的潜在代码建模曝光变化是过度参数化的,因为它允许潜在代码补偿非曝光相关的误差。该实验中,对共享网络预测的亮度进行仿射映射,其中仿射变换是一个从每幅图像潜在代码βi∈RB解码的3x3矩阵:

这种映射通过一个更严格的函数来模拟白平衡和曝光变化,因此当场景亮度参数θ和曝光映射β联合优化时,不太可能引起不必要的纠缠。
仿射变换,是指像素坐标到图像坐标的转换

2、Sky modeling (天空建模)

室外场景包含的天空区域,射出的光线从未穿过任何不透明的表面,因此NeRF模型在这些区域得到微弱的监控信号。 为了解决这个问题,渲染模型包括一个以基于坐标的神经网络表示的球形亮度(环境)地图,类似于Gancraft中使用的辐射图

对每个图像运行一个预先训练的语义分割模型,以检测可能是天空的像素:Si=S(Ii),如果射线r通过图像i中的天空像素,令Si®=1。然后使用天空掩码来定义一个额外的损失,鼓励通过天空像素的射线在所有点样本的密度为零

公式中,如果光线射向天空,未穿过物体,Si®=1,就会计算这个损失,并训练该损失最小,鼓励通过天空像素的射线在所有点样本的密度为零。

2、Lidar losses (雷达损失)

由于数据中有激光雷达数据(点云),用它来监督模型的训练。 给出了L个激光雷达样本的集合D={(ol,dl,zl)l=1-N},每个样本对应于一条射线r(z)=ol+zdl,以及相关的三维测量Pl=r(zl)。
将损失分解为两种不同的类型:1-监督期望的深度值;2-监督从激光雷达传感器到观测位置沿视线的自由空间。

1、Expected depth

首先从体积绘制过程来监督期望深度z,以匹配激光雷达测量的深度,即体绘制中得到的深度与点云中的深度误差越小越好。

2、Line-of-sight priors(视线先验)

对于由激光雷达传感器观测到的点,一个合理的假设是:一个测量点p对应于一个非透明表面上的位置,大气介质对激光雷达测量的颜色没有贡献。因此,我们期望辐射亮度集中在沿射线的一个点上,也就是说,一个点负责观察到的颜色。点密度等于当前表面密度,表面颜色等于点的颜色,不考虑后面遮挡


δ(.)为连续狄拉克函数,可以通过惩罚方法将这种约束转换为损失:


为了使这个数值易于处理,我们可以用一个积分为1(即一个分布)的核来代替狄拉克函数,类似于将密度分布变成一个正态分布,总积分为1,大部分的值集中在表面的点上。

第二项为near,物体表面的点,鼓励表示在P附近增加体积密度,从而允许训练更快地收敛。核函数在


第一项可以简化为

这要求射线源和激光雷达点P之间的部分空间(即视线)不包含任何3D表面。 这种视线信息一直是“体雕”技术的关键组成部分
最后一项
这个的是确保w(t)和为1,并且因为NeRF的体绘制方程只要求w(t)和不超过1,所以在训练过程中可以删掉这一项。

Urban Radiance Fields相关推荐

  1. 【CVPR 2022】Deblur-NeRF: Neural Radiance Fields from Blurry Images

    Deblur-NeRF: Neural Radiance Fields from Blurry Images 论文简介: 论文介绍: 具体实现: 基本概念 实现细节 Deformable Sparse ...

  2. 火爆科研圈的三维重建技术:Neural radiance fields (NeRF)

    如果说最近两年最火的三维重建技术是什么,相信NeRF[1]是一个绝对绕不过去的名字.这项强到逆天的技术,一经提出,就被众多研究者所重视,对该技术进行深入研究并提出改进已经成为一个热点.仅仅过了不到两年 ...

  3. GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

    GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis Abstract 虽然二维生成对抗网络能够实现高分辨率的图像合成,但它们在很 ...

  4. 【CVPR 2021】pixelNeRF: Neural Radiance Fields from One or Few Images

    pixelNeRF: Neural Radiance Fields from One or Few Images 论文简介: 论文介绍: Image-conditioned NeRF: Single- ...

  5. [CVPR2021]pixelNeRF: Neural Radiance Fields from One or Few Images

    标题:pixelNeRF: Neural Radiance Fields from One or Few Images 链接:https://arxiv.org/pdf/2012.02190 本文是针 ...

  6. [非卷积5D中文翻译及学习笔记] 神经辐射场 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis

    不使用3D建模,使用静态图片进行训练,用(非卷积)深度网络表示场景的5D连续体表示,再通过ray marching进行渲染. 本中文翻译使用"机器学习+人工校准/注解"的方式完成. ...

  7. 一文搞懂 神经辐射场(Neural Radiance Fields,NeRF)

    NeRF 简介 输入输出 优缺点 原理 结构 pytorch实现 第三方库进行 NeRF 的实现 自行实现 相关名词解释 辐射场 多层感知机(MLP) 点的密度 体积渲染 体积纹理 渲染方程 简介 神 ...

  8. 【论文笔记 - NeRFs - ECCV2020】NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis

    NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 0背景介绍 用神经辐射场来表征场景,用于新视角图像生成任务 ...

  9. 【论文精读】NeRF —— 解读《NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis》

    NeRF的核心点是实现了复杂静态场景的隐式表达,用一个神经网络来建模. Abstract 本文提出了一种新方法,通过使用稀疏的输入视图集优化底层连续的体积场景函数,实现了合成复杂场景的新视图的SOTA ...

最新文章

  1. 比较文件内容是否相同
  2. Flask and Ajax Post HTTP/1.1 400
  3. win7电脑恢复系统设置或计算机点不了,Win7系统电脑开机就提示需要启动修复的解决方法...
  4. a股用计算机模拟走势,咬牙跺脚!A股牛市不改的铁证!
  5. 【Vegas原创】mysql更改用户密码之无敌方法
  6. 「代码随想录」343. 整数拆分【动态规划】详解!
  7. 8.从Paxos到Zookeeper分布式一致性原理与实践---Zookeeper 运维
  8. 用户中心模块——基于Django框架的天天生鲜电商网站项目系列博客(五)
  9. Excel单元格向下,向右自动填充的快捷键
  10. Windows 10不能安装mini版迅雷的解决方法
  11. java Vector 在多线程使用中需要注意的问题
  12. mono java 性能_Mono对Java的支持
  13. 2021年芯片产业发展的五大关键词
  14. pdf签名无效解决办法_强大的PDF编辑工具Wondershare PDFelement
  15. 【STM32编程】一个定时器生成多路PWM波形的原理和方法
  16. 基于GINA/凭证提供程序的自助密码管理
  17. MATLAB常用函数(不定时更新)
  18. 【机器视觉】基于机器视觉的工业机器人定位系统;机器视觉技术在印刷包装行业中的应用
  19. win10笔记本投屏到小米电视-无线
  20. centos6下使用有道云笔记

热门文章

  1. Tensorflow2.6实现Unet结构神经网络(3D卷积)识别脑部肿瘤并实现模型并行
  2. 通过CC逻辑控制芯片(CC Logic)HUSB320,简单实现接口升级
  3. java后端获取时间
  4. 在线编译linux,在线就能用的Linux我给你找好了
  5. 人生把我当成了戏子,我只好把你们当成婊子
  6. NVIDIA卡和ATI卡的对比,以及如何判断 N卡 和 A卡 每个型号的含义:
  7. 【ZCMU1931】wjw的剪纸(dfs)
  8. 关于图片轮播图的一个简单实例 以及实例中发现问题
  9. 怎么绕过PHP的防护,PHP代码层防护与绕过
  10. 饼图加引导线_【如何在饼形图中添加引导线(Excel)】excle里面一条竖状线