Tesla在AI day上公布他们的视觉解决方案,其核心模板的名字也叫HydraNet,解决了实时感知问题。本文简要详细介绍一下

1. Tesla视觉系统的输入和输出

图一,Tesla视觉感知系统的输入和输出

Tesla的视觉系统由8个摄像头环绕车身,视野范围达 360 度,每个摄像头采集分辨率为1280 × 960,12-Bit, 36Hz的RAW格式图像,对周围环境的监测距离最远可达 250 米。

摄像头捕获环境中的视觉信息经过一系列神经网络模型的处理,最终直接输出3D场景下的 “Vector Space”用于后面的规划和智驾系统。

图二,Tesla车载相机布置方式

Tesla有8个摄像头,其中前视有3个,负责近中远3种不同距离和视角的感知;侧后方两个,侧前方两个,以及后方单个,完整覆盖360度场景。

Tesla的自动驾驶感知算法经过了多个版本迭代,最初的HydraNet是比较早期的版本,经过不断的迭代一路进化,应用到了近期的FSD系统中。

2. HydraNet

HydraNet以分辨率为1280×960,12-Bit, 36Hz的RAW格式图像作为输入,采用的Backbone为RegNet,并使用BiFPN构建多尺度feature map,再在上面再添加task specific的Heads。

图三,HydraNet模型结构

熟悉目标检测或是车道线检测的同学可以发现,初代HydraNet的各个组成部分都是常规操作,没有太多特殊的地方,共享Backbone和BiFPN能够在部署的时候很大程度的节省算力,也算是业界比较常见的。

但是,Tesla却把这样的结构玩出了花来,用这样的结构带来以下三点好处:

  • 预测的时候非常高效:因为共享特征,避免了大量的重复计算;
  • 可以解耦每个子任务:每个子任务可以在backbone的基础上进行fine-tuning,或是修改,而不影响其他子任务。
  • 可以加速fine-tuning:训练过程中可以将feature缓存,这样fine-tuning的时候可以只使用缓存的feature来fine-tune模型的head,而不再需要重复计算。

所以HydraNet实际的训练流程是先端到端地训练整个模型,然后使用缓存的feature分别训练每个子任务,然后再端到端地训练整个模型,以此迭代。

就这样,一个普通的模型就被Tesla把潜力挖掘到了极致,模型训练中一切不必要的计算开销都被省略了。

惊叹Tesla工程能力和精打细算的同时我们可以发现,这样的简单模型如果是使用单相机图像作为输入,有很大盲区,只能用于车道保持等很简单的辅助驾驶任务,并且需要借助其他传感器(如超声波雷达)的辅助来降低风险。

更复杂的自动驾驶任务需要使用多个相机的图像作为感知系统的输入,同时感知系统的预测结果需要转换到三维空间中的车体坐标系下,才能输入到规控系统用以规划驾驶行为。

多相机输入相对单相机不是简单的在多个相机上分别预测,然后投影到车体坐标系下就可以了,而是需要协调好多个相机的感知结果,是一个很复杂的工程问题。

针对这一问题,Tesla给出了一个很好的解决方案。

2.1. 进化一:多相机输入

我们知道不能简单使用图像上的感知结果来进行自动驾驶,要精确的知道每个交通参与者的位置,道路的走向,需要车体坐标下(Tesla在这里命名为Vector Space)的感知结果。要得到这样的感知结果有三种可能的方案:

方案1:在各个摄像头上分别做感知任务,然后投影到车体坐标系下进行整合;

方案2:将多个摄像头的图像直接变换和拼接到车体坐标系下,再在拼接后的图像上做感知任务;

方案3:直接端到端处理,输入多相机图像,输出车体坐标下的感知结果;

对于方案1,实践发现图像空间的输出并不是正确的输出空间,比如图四,图像空间显示很好的车道线检测结果,投影到Vector space之后,就变得不太能用。

问题的原因在于需要精确到像素级别的预测, 才能够比较准确地将结果投影到Vector space,而这一要求过于严格。

图四,图像空间下很好的车道线结果在Vector Space下不太理想

同时,在多相机的目标检测中,当一个目标同时出现在两个以上摄像头的视野中时,投影到车体坐标之后会出现重影;此外,对于一些比较大的目标,一个摄像头的视野不足以囊括整个目标,每个摄像头都只能捕捉到局部,整合这些摄像头的感知结果就会变成非常困难的事情。

对于方案2,图像完美拼接本就是一件非常困难的事情,同时拼接还会受到路平面以及遮挡的影响。

于是Tesla最终选用了方案3。方案3会面临如下两方面的问题,一方面是如何将图像空间的特征转换到vector space,另一个问题是如何获得vector space下的标注数据。

这里主要探讨第一个问题。

关于将图像空间的特征转换到vector space,Tesla采用的方案是直接使用一个Multi-Head Attention的transformer来表示这个转换空间,而将每个摄像头的图像转换为key和value。

我看到这一操作后简直惊为天人,这个方案精妙,完美地运用了Transformer的特点,将每个相机对应的图像特征转换为Key和value,然后训练模型以查表的方式自行检索需要的特征用于预测。

同时难以置信的是,业界还在讨论Transformer能不能用到产品端的时候,Tesla已经悄无声息地将其插入到了最新的系统中!

因为这样的设计,不需要显式地在特征空间上做一些几何变换操作,也不受路平面等因素的干扰,很优雅地将输入信息过渡到了Vector Space!

图五,使用Transformer整合多相机信息

不用怀疑,加入这一优化后的结果就是车道线更加准确清晰,目标检测的结果更加稳定,同时不再有重影。

图六,使用Transformer整合多目信息后,感知效果明显提升

2.2. 进化二:时间和空间信息

经过上一步的进化,感知模型虽然可以在多相机输入的情况下得到Vector Sapce下稳定和准确的预测结果,但是依然是单帧处理的,没有考虑时序信息。

而在自动驾驶场景,需要对交通参与者的行为有预判,同时视觉上的遮挡等情况需要结合多帧信息进行处理,因此需要将时序信息考虑进来。

为此,Tesla在网络中又添加了特征队列模块(Feature queue module)用来缓存时序上的一些特征,以及视频模块(Video module)用来融合时序上的信息。此外,还给模型加入了IMU等模块带来的运行学信息比如车速和加速度。

经上述模块处理之后的特征融合了时序上的多相机特征,在Heads中进行解码得到最终输出。

下面首先介绍特征队列模块。

特征队列模块将时序上多个相机的特征,运动学的特征,以及特征的position encoding concat到一起,这一组合后的特征将在Video Module中使用。

顾名思义,特征队列模块按照队列的数据结构组织特征序列,根据队列的入队规则可分为时间特征队列(Time based queue)以及空间特征队列(Spatial based queue)。

图七,在模型中加入特征队列,视频模块,以及运动信息作为进一步优化

时序特征队列:每过27ms将一个特征加入队列。时序特征队列可以稳定感知结果的输出,比如运动过程中发生的目标遮挡,模型可以找到目标被遮挡前的特征来预测感知结果。

空间特征队列:每前进1m将一个特征加入队列。用于等红绿灯一类需要长时间静止等待的状态,在该状态下一段时间之前的在时序特征队列中的特征会出队而丢失。

因此需要用空间特征队列来记住一段距离之前路面的箭头或是路边的标牌等交通标志信息。

图八,特征队列

前面提到的特征队列只是用来组织时序信息,接下来介绍的视频模块要用来整合这些时序信息。Tesla团队选择了使用RNN结构来作为视频模块,并命名为空间RNN模块(Spatial RNN Module)

因为车辆在二维平面上前进,所以可以将隐状态组织成一个2D的网格。当车辆前进的时候,只更新网格上车辆附近可见的部分,同时使用车辆的运动学状态以及隐特征(hidden features) 更新车辆位置。

在这里,Tesla相当于是使用一个2D的feature map来作为局部的地图,在车辆前进过程中,不断根据运动学状态以及感知结果更新这个地图,避免因为视角和遮挡带来的不可见问题。同时在此基础上,可以添加一个Head用来预测车道线,交通标志等,以构建高精地图。

图九,空间RNN作为视频模块

通过可视化该RNN的feature,可以更加明确该RNN具体做了什么:不同channel分别关注了道路边界线,车道中心线,车道线,路面等等。

图十,空间RNN学到的特征可视化

添加了视频模块之后,能够提升感知系统对于时序遮挡的鲁棒性,对于距离和目标移动速度估计的准确性。

图十一,加入视频模块可以改善对目标距离和运动速度的估计,绿线为激光雷达的GT,黄线和蓝线分别为加入视频模块前后模型的预测值

3. 最终的模型

在初版HydraNet的基础上,使用Transformer整合了多个相机的特征,使用Feature Queue维护一个时序特征队列和空间特征队列,并且使用Video Module对特征队列的信息进行整合,最终接上HydraNet各个视觉任务的Head输出各个感知任务。

图十二,最终完整的模型结构以及对应感知结果

整个感知系统使用一个模型进行整合,融合了多个相机时序上和空间上的信息,最终直接输出所有需要的感知结果,一气呵成,非常干净和优雅。

Tesla AutoPilot纯视觉方案解析相关推荐

  1. 马斯克称“很快”将会提高纯视觉Autopilot系统最高限速

    NEW 关注Tech逆向思维视频号 最新视频→[为什么年轻人更容易被诈骗?] 4月13日消息,特斯拉首席执行官埃隆·马斯克(Elon Musk)在与网友互动时表示,公司"很快"会将 ...

  2. 百度Apollo首次披露纯视觉L4无人车方案:10摄像头,对标Mobileye

    李根 发自 凹非寺  量子位 报道 | 公众号 QbitAI 巨头新动作来了,行业风向可能要变. 百度Apollo,中国自动驾驶的最大玩家,刚刚在AI视觉顶会CVPR上,披露了一套纯视觉城市道路闭环解 ...

  3. 上马”纯视觉L2/L2+级ADAS方案,特斯拉并非第一家

    ADAS的感知方案组合,正在呈现分化的局面,是不是传感器种类越多越好?背后是技术的沉淀积累以及成本等多因素的考量. 作为全球最主要的两家以视觉ADAS路线起家以及作为重点发展方向的公司,特斯拉和Mob ...

  4. 特斯拉“纯视觉路线”能去掉ISP吗?

    特斯拉"纯视觉路线"能去掉ISP吗? 对特斯拉死磕的"纯视觉路线",持质疑态度的.质疑的点在于:算法的进步,能弥补摄像头物理性能的局限性吗?比如,视觉算法足够牛 ...

  5. ADS纯视觉感知产品设计的痛点观察

    编辑 | 佐思汽车研究.智车科技 点击下方卡片,关注"自动驾驶之心"公众号 ADAS巨卷干货,即可获取 点击进入→自动驾驶之心技术交流群 ADS纯视觉感知产品设计的痛点观察 自动驾 ...

  6. 特斯拉纯视觉FSD版本Bug频发!马斯克:不认真测试的车主就取消资格

    梦晨 发自 凹非寺 量子位 报道 | 公众号 QbitAI 马斯克多次承诺又多次跳票的特斯拉"全自动驾驶套件"FSD 9.0 beta可算来了. 这次最大的改动莫过于采用纯视觉路线 ...

  7. 「背叛」激光雷达第三年:百度纯视觉无人驾驶技术迈入产品化阶段

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 2019年,当百度自动驾驶工程师为Mobileye纯视觉DEMO效果惊叹不已时,不会想到一切来得这么快. 2021年,百度纯视觉L4方案, ...

  8. 特斯拉AI高级总监Andrej Karpathy详解Tesla纯视觉自动驾驶方案

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 作者:黄浴 链接:https://zhuanlan.zhihu.com/p/136179627 本文转 ...

  9. 单目纯视觉避障方案——2020中国机器人大赛FIRA避障仿真组决赛代码开源

    单目纯视觉避障方案--2020中国机器人大赛FIRA避障仿真组决赛代码开源 目录 单目纯视觉避障方案--2020中国机器人大赛FIRA避障仿真组决赛代码开源 比赛环境介绍 赛题要求 比赛思路 该方案的 ...

最新文章

  1. Void void Void用在泛型
  2. basis--IMG后台如何显示事务码(How to display IMG's Tcode)
  3. python之钉钉机器人编程
  4. 每日程序C语言2-判断某日期是这一年的第几天
  5. 动态内存管理:malloc和free以及new和delete的联系与区别
  6. mysql 增量备份_云计算-开源数据库-备份
  7. Euler:欧拉函数&素数筛
  8. jmeter+Fiddler:通过Fiddler抓包生成jmeter脚本
  9. qt5中重绘工具栏_Qt ------ QPainter 和控件组件的重绘
  10. vmware workstation不可恢复错误:(vthread-7)
  11. python @符号_用Python学数学之Sympy代数符号运算
  12. 客户端(vue框架)与服务器(koa框架)通信及服务器跨域配置详解
  13. Ubuntu 20.04 配置vim编辑器
  14. 使用TF卡烧录Jetson NX开发板
  15. iOS宏定义的黑魔法 - 宏菜鸟起飞手册
  16. HHL,AL;非结合朱顶红凝集素(HHL,AL)
  17. 《开源安全运维平台-OSSIM最佳实践》于2016年1月出版
  18. Japanese(Shift-Jis)的编码范围
  19. 英语四六级写作常用高分词汇句型替换
  20. 资深大牛告诉你什么是架构师

热门文章

  1. ECharts测量图,功率图
  2. zabbix专题:第十一章 zabbix之SNMP方式监控
  3. 数据处理系列(四) 安装Elasticsearch用以存储和查询数据
  4. 转:C#中Monitor对象与Lock关键字的区别分析
  5. Linux驱动修炼之道-RTC子系统框架与源码分析【转】
  6. My deep learning reading list
  7. jQuery Mobile设置边距的宽度和颜色
  8. 一次HP 阵列卡排障
  9. 跨区域MPLS TE
  10. Ansible02-实施playbook