原文来源:arXiv

作者:Aidin Ferdowsi、 Ursula Challita、Walid Saad、Narayan B. Mandayam

「雷克世界」编译:嗯~是阿童木呀、KABUDA

对于自动驾驶汽车(AV)而言,要想在未来的智能交通系统中以真正自主的方式运行,它必须能够处理通过大量传感器和通信链路所收集的数据。这对于减少车辆碰撞的可能性和改善道路上的车流量至关重要。然而,这种对通信和数据处理的依赖性使得AV很容易受到网络物理攻击。

最近,美国弗吉尼亚理工大学电气与计算机工程系的Aidin Ferdowsi和Walid Saad教授,瑞典爱立信研究院的Ursula Challita教授,以及美国罗格斯大学的Narayan B. Mandayam教授,针对自动驾驶汽车系统中的“安全性”问题,提出了一种新型对抗深度强化学习(RL)框架,以解决自动驾驶汽车的安全性问题。

可以这样说,为了能够在未来的智能城市有效地运行,自动驾驶汽车(AV)必须依靠车内传感器,如摄像头和雷达,以及车辆间的通信。这种对于传感器和通信链路的依赖使得AV暴露于攻击者的网络物理(CP)攻击之下,他们试图通过操纵它们的数据来控制AV。因此,为了确保安全和最佳的AV动力学控制,AV中的数据处理功能必须针对这种CP攻击具有强大的鲁棒性。

为此,本文分析了在存在CP攻击情况下监视AV动力学的状态估计过程,并提出了一种新的对抗深度强化学习(RL)算法,以最大化AV动力学控制针对CP攻击的鲁棒性。我们在博弈论框架中对攻击者的行为和AV对CP攻击的反应进行了研究。

在制定的游戏中,攻击者试图向AV传感器读数中注入错误数据,以操纵车辆间的最佳安全间距,并潜在地增加AV事故的风险或减少道路上的车流量。与此同时,AV作为一名防守者,试图将间距的偏差最小化,以确保具有针对攻击者行为的鲁棒性。由于AV没有关于攻击者行为的信息,并且由于数据值操作的无限可能性,因此玩家以往交互的结果被输入到长短期记忆网络(LSTM)块中。

每个玩家的LSTM块学习由其自身行为产生的预期间距偏差并将其馈送给其RL算法。然后,攻击者的RL算法选择能够最大化间距偏差的动作,而AV的RL算法试图找到最小化这种偏差的最佳动作。模拟结果表明,我们所提出的对抗深度RL算法可以提高AV动力学控制的鲁棒性,因为它可以最小化AV间的间距偏差。

智能交通系统(ITS)将包括自动驾驶汽车(AV)、路边智能传感器(RSS)、车辆通信、甚至是无人机。为了在未来的ITS中能够以真正自主的方式运行,AV必须能够处理通过大量传感器和通信链路所收集的大量ITS数据。这些数据的可靠性对于减少车辆碰撞的可能性和改善道路上的车流量至关重要。然而,这种对通信和数据处理的依赖性使得AV很容易受到网络物理攻击。

特别是,攻击者可能会在AV数据处理阶段进行插入,通过注入错误数据来降低测量的可靠性,并最终导致事故或危及ITS中的交通流量。这样的流量中断还可以波及到其他相互依赖的关键基础设施中,例如为ITS提供服务的电网或蜂窝通信系统。

图1:文中所提出的对抗深度强化学习算法的体系结构

最近,科学家们已经提出了一些解决车辆内部安全问题的安全性解决方案。P. Kleberger、T. Olovsson和E. Jonsson在他们所著的《联网汽车车载网络的安全问题》中,确定了车辆控制器的关键漏洞所在,并提出了许多入侵检测算法用以保护该控制器。此外,在《对联网汽车的实际无线攻击和车辆内部的安全协议》中,作者指出,AVs当前安全协议中的远程无线攻击可能会中断其控制器区域网络。

他们分析了AVs车辆内部网络对局外无线攻击的脆弱性。同时,《插入式车辆的安全性问题》的作者解决了插电式电动汽车的安全性挑战,同时考虑了它们对电力系统的影响。此外,在《关于嵌入式汽车网络安全威胁和保护机制的调查》中介绍了嵌入式汽车网络安全威胁和保护机制的调查。

此外,最近科学家们还研究了车辆通信安全挑战和解决方案。分析了当前车辆通信体系架构的安全漏洞。此外,科学家们发现,通过使用短期认证方案和合作车辆计算架构,可以减轻由信标加密引起的计算开销。

图2:在攻击者只攻击信标信息的情况下,AV和攻击者的行为、regret以及我们提出的算法的偏差

然而,在设计安全解决方案时,以往的一些研究成果中的体系构架和解决方案没有兼顾AV 的网络层与物理层之间的相互依赖性。此外,现有的研究没有对攻击者的行为和目标进行合理的建模。在这种情况下,攻击者的行为和目标的这种网络-物理依赖性将有助于提供更好的安全解决方案。

另外,在一些以往的研究成果中,现有技术没有提供能够增强AV动力学控制应对攻击的鲁棒性的解决方案。然而,设计一个最佳且安全的ITS需要对车辆间传感器和车辆间通信的攻击具有鲁棒性。此外,现有的ITS安全性研究往往假设攻击者的行为处于稳定状态,然而在许多真实情况下,攻击者可能会自适应地改变其策略以增强攻击对ITS的影响。

因此,本文的主要贡献在于提出了一种新型对抗式深度强化学习(RL)框架,旨在提供具有鲁棒性的AV控制。特别要强调的是,我们提出了一种车辆跟随模型(car following model),在该模型中,我们将关注的重点放在紧跟在另一个AV后的一个AV的控制上。这样的模型是恰当的,因为它会捕捉AV的动力学控制,同时记录AV的传感器读数和信标。

我们考虑通过车内传感器(例如:摄像头、雷达、RSS、车内信标)收集领先AV的四个信息源。我们认为攻击者可以向这些信息中心注入不良数据,并试图增加事故风险或减少车流量。相比之下,AV的目标是保持对攻击者的数据注入攻击(data injection attacks)具有鲁棒性的同时,最大限度地控制其速度。为了分析AV和攻击者之间的交互,我们提出了一个博弈问题,并分析了它的纳什均衡(NE)。然而,我们注意到,由于存在连续的攻击者和AV动作集以及连续的AV速度和间隔,使得在NE处获得AV和攻击者动作具有挑战性。

为了解决这一问题,我们提出了两个基于长-短期记忆(long-short term memory)(LSTM)块的深度神经网络(DNN),针对AV和攻击者,提取过去AV动态的摘要,并将这些摘要反馈给每个玩家的RL算法。一方面,AV的RL算法试图通过结合传感器读数来从领先的AV速度中学习最佳估计。另一方面,攻击者的RL算法试图欺骗AV,并偏离车辆间的最佳安全距离。模拟结果表明,所提出的深度RL算法收敛于混合策略的纳什均衡点,可以显著提高AV针对数据注入攻击的鲁棒性。

结果还表明,AV可以利用所提出的深度RL算法来有效学习传感器融合规则,最大限度地减小速度估计误差,从而减小了与最优安全间距的偏差。

图3:在攻击者攻击所有传感器的情况下,AV和攻击者的行为、regret和偏差

本文提出了一种新型深度RL方法,该方法能够在传感器读数受到数据注入攻击的情况下,实现对AV的具有鲁棒性的动力学控制(robust dynamics control)。为了分析攻击者攻击AV数据的动机,同时了解AV对这类攻击的反应,我们提出了攻击者与AV之间的博弈问题。我们已经表明,在纳什均衡(the mixed strategies at Nash equilibrium)中推导出混合策略从分析角度而言具有挑战性。

因此,我们使用我们提出的深度RL算法学习AV在每个时间步长中的最优传感器融合。在所提出的深度RL算法中,我们使用了LSTM块,它可以提取AV和攻击者动作及偏差值之间的时间特征与依懒性,并将其反馈给强化学习算法。模拟结果表明,利用所提出的深度RL算法,AV可以缓解数据注入攻击对传感器数据的影响,从而保持对这些攻击的鲁棒性。

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

「对抗深度强化学习」是如何解决自动驾驶汽车系统中的「安全性」问题的?...相关推荐

  1. OR Paper Weekly (2)| 深度强化学习在库存管理、自动驾驶等领域的应用;MS主编看管理科学发展历史与展望

    作者:徐思坤,姜凯雯 精选论文(一) 论文题目:  Can Deep Reinforcement Learning Improve Inventory Management? Performance ...

  2. ADAS自动驾驶辅助系统通讯协议「ADASIS Protocol」接口定义解析(二)详细

    「ADASIS Protocol Introduction」 --信号接口解析 本文来自微信公众号:[阿波兹得][续]ADASIS Protocol介绍 (2) 信号解析https://mp.weix ...

  3. 深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展

    论文研读--Deep Learning Sensor Fusion for Autonomous Vehicle Perception and Localization: A Review 深度学习传 ...

  4. 多智能体深度强化学习(MADRL)在大规模交通信号灯控制中的应用

    <Multi-Agent Deep Reinforcement Learning for Large-Scale Traffic Signal Control> IEEE Transact ...

  5. 我的天,强化学习还能用在自动驾驶领域?

    随着深度神经网络的兴起,强化学习在许多传统游戏中得到了稳步的发展,并在许多游戏中超越了人类. 强化学习研究的场景主要集中在机器人.游戏.棋牌等方面,然而,自动驾驶的强化学习研究却很难在现实场景中进行实 ...

  6. 揭秘深度强化学习的研究哲学:乐观主义与悲观主义

    智源导读:西北大学汪昭然老师课题组的主要研究方向为:为深度强化学习算法提供理论保障,从样本复杂性.计算复杂性等方面提升深度强化学习算法的效率.在近期的演讲中,汪老师分别介绍了在线学习环境下进行探索的「 ...

  7. 写的书太受欢迎怎么办?北大《深度强化学习》重磅开放下载

    来源:机器之心 由于太受欢迎,这本书先后出版了英文.中文简体和中文繁体三个版本.其覆盖内容的范围之广令帝国理工学院教授.香港浸会大学副校长郭毅可印象深刻.如今,这本书的中文简体版正式开放下载. 得益于 ...

  8. 【ICML2021】 9篇RL论文作者汪昭然:构建“元宇宙”和理论基础,让深度强化学习从虚拟走进现实...

    深度强化学习实验室 官网:http://www.neurondance.com/ 论坛:http://deeprl.neurondance.com/ 来源:转载自AI科技评论 作者 | 陈彩娴 深度强 ...

  9. 写的书太受欢迎怎么办?北大《深度强化学习》作者:那就开放下载吧

    机器之心报道 机器之心编辑部 由于太受欢迎,这本书先后出版了英文.中文简体和中文繁体三个版本.其覆盖内容的范围之广令帝国理工学院教授.香港浸会大学副校长郭毅可印象深刻.如今,这本书的中文简体版正式开放 ...

最新文章

  1. Oracle归档日志删除
  2. thinkpad x230评测_全新改变超长续航 ThinkPad X230评测
  3. 自定义Chrome 滚动条样式
  4. iBatis.Net系列(一)-简介
  5. 第三次学JAVA再学不好就吃翔(part48)--String类的判断功能
  6. 2017-2018-1 20155301 《信息安全系统设计基础》第7周学习总结
  7. Python学习笔记 ---第三章
  8. Linux系统无线网络抓包程序(分析手机WIFI MAC地址)
  9. 忘记mysql管理密码怎么办?
  10. Node.js入门(二)
  11. 如何使用 Pages 在 iPhone、iPad 或 Mac 上插入和编辑表格?
  12. 利用VBB仿真——实现24小时电子钟
  13. 单片机原理及应用(汇编语言、C语言)
  14. smarty下载及入门教程
  15. 从国家统计局爬取山东省市区县乡镇
  16. 计算机考研828是什么意思,浙江大学828计算机程序设计基础考研复习经验
  17. 2. 数理统计---样本分布
  18. hackthebox - blunder (Bludit渗透cewl使用 sudo提权)
  19. 《大型网站技术架构》《K8S进阶实战》等书籍!送45本!
  20. Ndis网卡驱动是如何操控硬件的

热门文章

  1. 数据蒋堂 | 莫非我就是被时代呼唤的数学人
  2. ICML 2018 | 清华排名国内居首:大会论文接收情况一览
  3. 数据派新年寄语 | 新时代,新年好!
  4. 「天才少年」稚晖君调戏机械臂!加上AI视觉,2小时学会抓螺母
  5. 好消息!算法工程师提高待遇的好机会,终于来了!!
  6. 黄金时代:这个地区17所新大学建设,提速!
  7. Github上十大热门可视化面板!再也不用担心画图啦!
  8. SAP WM初阶移动类型设置里的GR Date
  9. 如何使用SAP零售系统中的LISTING?【中英文对照版】
  10. SAP WM LT15不能取消二步法确认场景中只做过第一步确认的TO单