ICCV 2019无人驾驶研究成果大总结(含大量论文及项目数据)
ICCV每两年举行一次,今年是在韩国首尔举行,共提交了1076篇论文。下面是关于感知、规划、建图&定位、自动驾驶数据管理四大方面的论文情况总结。
感兴趣的小伙伴可访问下文中的链接或公众号后台回复“ICCV2019”获取资料。
感知
【Fast PointR-CNN】
论文:http://openaccess.thecvf.com/content_ICCV_2019/papers/Chen_Fast_Point_R-CNN_ICCV_2019_paper.pdf
简介:腾讯和香港大学联合发表的论文基于KITTY提出了一种新的使用激光雷达技术的快速三维检测方法。它将立体像素和点云表示合并在一个两阶段的方法中,以利用两者的优势:立体像素表示用于初始提案,点云表示用于细化阶段。
【Range Adaptation for 3D Object Detection in LiDAR】
论文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Wang_Range_Adaptation_for_3D_Object_Detection_in_LiDAR_ICCVW_2019_paper.pdf
简介:沃尔沃与杜克大学联合发表的文章表示随着激光雷达输入变得更加稀疏,现有的三维检测网络的性能随着距离的增加而降低。为此,本文提出了一种基于距离的神经网络性能改进方法,以提高对远距离目标的性能。
【M3D-RPN:Monocular 3D Region Proposal Network for Object Detection】
论文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Wang_Range_Adaptation_for_3D_Object_Detection_in_LiDAR_ICCVW_2019_paper.pdf
项目代码:
https://github.com/garrickbrazil/M3D-RPN
简介:密歇根州立大学的文章提出一种新的单镜头单目三维目标检测方法,极大地提高了基于KITTY数据集的技术水平。
【VehicleDetection With Automotive Radar Using Deep Learning on Range-Azimuth-DopplerTensors】
论文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/CVRSUAD/Major_Vehicle_Detection_With_Automotive_Radar_Using_Deep_Learning_on_Range-Azimuth-Doppler_ICCVW_2019_paper.pdf
简介:美国高通公司的团队探索了一种通过雷达输出探测车辆的方法。与其他方法不同的是,作者提出了处理原始传感器测量数据以提高性能。
【JointMonocular 3D Vehicle Detection and Tracking】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Hu_Joint_Monocular_3D_Vehicle_Detection_and_Tracking_ICCV_2019_paper.pdf
项目代码:
https://github.com/ucbdrive/3d-vehicle-tracking
简介:加州大学伯克利分校表示检测和跟踪任务通常在一个模块化的反病毒堆栈中相互独立建模。这项工作提出了一种端到端的神经网络,它只使用一个摄像头就能学会两者。
【How Do NeuralNetworks See Depth in Single Images?】
论文:http://openaccess.thecvf.com/content_ICCV_2019/papers/van_Dijk_How_Do_Neural_Networks_See_Depth_in_Single_Images_ICCV_2019_paper.pdf
简介:荷兰代尔夫特理工大学近年来从单一图像的深度方法有显着提高。作者研究了这些方法是如何工作的,得出的结论是它们过度适合物体在图像中的垂直位置。如果摄像头安装在车上的不同位置可能会导致错误。
【Robust Multi-Modality Multi-Object Tracking】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhang_Robust_Multi-Modality_Multi-Object_Tracking_ICCV_2019_paper.pdf
项目代码:
https://github.com/ZwwWayne/mmMOT
简介:南洋理工大学的多模态感知(在激光雷达和摄像头中检测和跟踪目标)通常是通过模块化的、多阶段的方法实现的,每个方法都有自己的假设。该方法允许将这些单独的步骤合并到一个端到端可训练的系统中,从而提高的性能。
感知&规划
【Exploring theLimitations of Behavior Cloning for Autonomous Driving】
论文:http://openaccess.thecvf.com/content_ICCV_2019/papers/Codevilla_Exploring_the_Limitations_of_Behavior_Cloning_for_Autonomous_Driving_ICCV_2019_paper.pdf
项目代码:
https://github.com/felipecode/coiltraine/blob/master/docs/exploring_limitations.md
简介:丰田研究所表示目前自动驾驶汽车(AVs)的轨迹规划仍然主要是手工工作。使用机器学习解决这个问题的方法之一是模仿现有的驱动程序。作者研究了这种方法的局限性,并提出了一个新的数据集来评估学习策略的性能。
【TowardsLearning Multi-Agent Negotiations via Self-Play】
论文:
http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Tang_Towards_Learning_Multi-Agent_Negotiations_via_Self-Play_ICCVW_2019_paper.pdf
简介:苹果公司表示强化学习可能是机器人在没有人工编码的情况下学习如何行动的一种强有力的方式,但在现实的机器人技术中很难应用。在本论文中,作者使用模拟来评估一个基于强化学习的系统。
【PIE: ALarge-Scale Dataset and Models for Pedestrian Intention Estimation andTrajectory Prediction】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Rasouli_PIE_A_Large-Scale_Dataset_and_Models_for_Pedestrian_Intention_Estimation_ICCV_2019_paper.pdf
项目数据集:
http://data.nvision2.eecs.yorku.ca/PIE_dataset/
简介:约克大学提出了一个新的数据集来预测行人的意图和未来的轨迹。作者还为这些任务提供了基线模型。
建图&定位
【DAGMapper:Learning to Map by Discovering Lane Topology】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Homayounfar_DAGMapper_Learning_to_Map_by_Discovering_Lane_Topology_ICCV_2019_paper.pdf
简介:Uber ATG为自动驾驶汽车创建了高清语义映射工作,提出了一种自动生成语义地图的方法,实现了89%的正确拓扑。
【GSLAM: AGeneral SLAM Framework and Benchmark】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhao_GSLAM_A_General_SLAM_Framework_and_Benchmark_ICCV_2019_paper.pdf
项目代码:
https://github.com/zdzhaoyong/GSLAM
简介:中国西北工业大学表示SLAM系统在过去十年中得到了显著的发展,在此基础上,提出了一个统一的框架来比较现有方法的不同组成部分,并帮助开发新的方法。
【LPD-Net: 3DPoint Cloud Learning for Large-Scale Place Recognition and Environment Analysis】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Liu_LPD-Net_3D_Point_Cloud_Learning_for_Large-Scale_Place_Recognition_and_ICCV_2019_paper.pdf
简介:香港中文大学在预先构建的地图中,基于雷达的本地化是自动驾驶汽车视觉堆栈的关键组成部分。在这篇论文中,作者提出了一个全局学习描述符来识别车辆在地图的哪个部分。
【SemanticKITTI:A Dataset for Semantic Scene Understanding of LiDAR Sequences】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Behley_SemanticKITTI_A_Dataset_for_Semantic_Scene_Understanding_of_LiDAR_Sequences_ICCV_2019_paper.pdf
网址:
http://www.semantic-kitti.org/
项目代码:
https://github.com/PRBonn/semantic-kitti-api
简介:德国波恩大学提出了一种新的数据集,它提供了所有KITTY序列中点云的语义注释。以此来开发地图和感知系统的语义分类。
自动驾驶数据管理
【DBUS: HumanDriving Behavior Understanding System】
论文:
http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Li_DBUS_Human_Driving_Behavior_Understanding_System_ICCVW_2019_paper.pdf
简介:滴滴出行联合南加利福尼亚大学表示Crowd-sourcing是一种收集大量人类驾驶数据来训练自动驾驶系统的方法。使这些数据可搜索且有用。为了解决这个问题,作者提出了一个端到端系统,该系统允许处理、索引和查询大量的驱动数据,以检索相关的场景。
【Large ScaleMultimodal Data Capture, Evaluation and Maintenance Framework for AutonomousDriving Datasets】
论文:
http://openaccess.thecvf.com//content_ICCVW_2019/papers/AUTONUE/Lakshminarayana_Large_Scale_Multimodal_Data_Capture_Evaluation_and_Maintenance_Framework_for_ICCVW_2019_paper.pdf
项目代码:
https://github.com/intel/driving-data-collection-reference-kit
简介:因特尔公司表示自动驾驶不仅是对人工智能的挑战,也是一个重大的工程和数据管理挑战。本文描述了一个存储和处理大量自动驾驶数据的案例研究和所涉及的挑战。
【Meta-Sim:Learning to Generate Synthetic Datasets】
论文:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Kar_Meta-Sim_Learning_to_Generate_Synthetic_Datasets_ICCV_2019_paper.pdf
项目代码:
https://github.com/nv-tlabs/meta-sim
简介:NVIDIA联合多伦多大学在具有挑战性的条件下综合数据是训练或测试自动驾驶堆栈的方法之一。本文提出了一种基于用户文本输入的场景生成模型。
【Advanced Pedestrian Dataset Augmentation for Autonomous Driving】
论文:
http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Vobecky_Advanced_Pedestrian_Dataset_Augmentation_for_Autonomous_Driving_ICCVW_2019_paper.pdf
简介:布拉格捷克理工大学在具有挑战性的条件下综合数据是训练或测试自动驾驶堆栈的方法之一。作者提出了使用GANs来生成行人检测问题的数据。
【更多ICCV的论文请访问如下链接】
https://docs.google.com/spreadsheets/d/1hNT7QoBB_hRSnOHqURzDraslr90jT0Pf5rVsvnOUUiE/edit?usp=sharing
ICCV 2019无人驾驶研究成果大总结(含大量论文及项目数据)相关推荐
- NeurIPS2019无人驾驶研究成果大总结(含大量论文及项目数据)
点击我爱计算机视觉标星,更快获取CVML新技术 神经信息处理系统大会(NeurIPS),是一个机器学习和计算神经科学相关的顶级学术会议.每年的12月举办.2019的第33届NeurIPS在加拿大温哥华 ...
- 深度学习论文TOP10,2019一季度研究进展大盘点
鱼羊 编译整理 量子位 报道 | 公众号 QbitAI 9012年已经悄悄过去了1/3. 过去的100多天里,在深度学习领域,每天都有大量的新论文产生.所以深度学习研究在2019年开了怎样一个头呢? ...
- 3D图像生成和编辑研究成果大放送!朱俊彦团队放出两篇论文实现代码 | 资源...
乾明 发自 凹非寺 量子位 报道 | 公众号 QbitAI 朱俊彦团队,一口气放出两篇论文的实现代码! 这两篇论文,都与3D图像有关,都被NeurIPS 2018大会收录了.朱俊彦在Twitter上 ...
- OpenAI 首个研究成果 生成式模型系列
OpenAI 首个研究成果 生成式模型系列 字数4628 阅读932 评论2 喜欢4 OpenAI 现在第一个研究成果已经公开:这四个项目 有着同样的主题--那就是加强或者使用了生成式模型. 生成式模 ...
- 像人类一样理解言外之意,阿里AI最新研究成果被国际顶会收录
AI的语言理解能力又进一步了!7月30日,在全球线上举行的人工智能顶会SIGIR 2020上,阿里巴巴研究团队表现突出,共有29项研究成果入选,是全球论文数量最多的科技公司.据悉,阿里在多个成果中展现 ...
- ICCV 2019 | 通过多标签相关性研究提升神经网络视频分类能力
作者丨王磊 单位丨汽车之家视频理解工程师 研究方向丨深度学习.计算机视觉 本文介绍了汽车之家团队 ICCV 2019 一篇关于视频理解论文相关的工作.针对视频多标签分类的问题,论文提出了将视频多标签之 ...
- 2019深度学习最新研究成果分享
朋友们,我是床长! 如需转载请标明出处:http://blog.csdn.net/jiangjunshow 深度学习已经运用到多个领域,为人们生活带来极大便利.然而,为特定任务构造一个高质量的深度学习 ...
- 谷歌用1.2万个模型“推翻”现有无监督研究成果!斩获ICML 2019最佳论文
作者 | 夕颜.Just 出品 | AI科技大本营(ID:rgznai100) 6 月 11 日,在美国加州长滩举行的 ICML 公布了 2019 年最佳论文奖,来自苏黎世联邦理工大学.谷歌大脑等的团 ...
- Google “推翻”无监督研究成果!斩获 ICML 2019 最佳论文
作者 | 夕颜.Just 出品 | AI科技大本营(ID:rgznai100) 6 月 11 日,在美国加州长滩举行的 ICML 公布了 2019 年最佳论文奖,来自苏黎世联邦理工大学.谷歌大脑等的团 ...
最新文章
- Asp.Net细节性问题技巧精萃(转载)
- 【UVA】10012 - How Big Is It?(暴力)
- 成功解决numpy.linalg.LinAlgError: singular matrix
- (*长期更新)软考网络工程师学习笔记——Section 9 应用层
- html如何设置文本斜体,CSS/HTML:使文本斜体的正确方法是什么?
- Win7-其中的文件夹或文件已在另一个程序中打开
- python判断网页密码加密方式_Python模拟网页中javascript加密与验证的相关处理
- 分页存储过程2005
- Etcd超全解:原理阐释及部署设置的最佳实践
- Jenkins+Spring Boot构建部署
- LINUX下载编译libsndfile
- 搜索,推荐,广告系统架构及算法技术资料大合集吐血整理——2020年终分享
- 通信原理及系统系列9—— 设计无码间串扰的通信系统(理想低通滤波器)
- 什么是网络安全网格?
- 无线网服务器在哪里设置方法,无线网络如何设置静态ip地址
- 数仓工具hive概述
- Java导入证书失败Keystore was tampered with, or password was incorrect
- Android即时通讯和sns开源项目汇总
- 自学编程应该从哪里开始?
- Carla中文版社区来了
热门文章
- Java---->强烈安利0_0详解注解和反射机制
- Zookeeper同步机制!!!
- (转)回溯法-算法框架及基础
- Python爬取bilibili的cos福利
- 他在自己的荣光中如此孤独,孤独地连一个敌人都没有剩下。
- python ai教程_带有Python的AI教程
- delphi 取屏幕分辨率_使用Delphi更改Windows屏幕分辨率的更新
- 骁龙芯片性能排行2020_手机芯片性能排行榜
- 【前端系列教程之HTML5】01_HTML概述
- BUUCTF RE WP33-35 [WUSTCTF2020]level2、[HDCTF2019]Maze、[BJDCTF2020]BJD hamburger competition