通过深度强化学习避免碰撞的编队控制(Formation Control with Collision Avoidance through Deep Reinforcement Learning)

文献链接
最近我在学习多机器人编队导航的论文,此篇文章为“Z. Sui, Z. Pu, J. Yi and T. Xiong, “Formation Control with Collision Avoidance through Deep Reinforcement Learning,” 2019 International Joint Conference on Neural Networks (IJCNN), 2019, pp. 1-8, doi: 10.1109/IJCNN.2019.8851906.”的论文学习笔记,只供学习使用,不作商业用途,侵权删除。并且本人学术功底有限,如果有思路不正确的地方欢迎批评指正!

摘要

   为跟随者生成无碰撞、时间有效的路径是避免碰撞的编队控制中的一个具有挑战性的问题。具体来说,跟随者必须同时考虑编队维护和避碰。最近的工作显示了深度强化学习 (DRL) 在学习碰撞避免策略方面的潜力。然而,在以前的作品中只考虑了碰撞因素。在本文中,文中通过学习一项综合任务将基于学习的策略扩展到编队控制领域。特别是采用了模仿学习和强化学习的两阶段训练方案。提出了一种融合奖励函数来引导训练。此外,提出了一种面向编队的网络架构用于环境感知,并应用长短期记忆(LSTM)来感知任意数量的障碍物的信息。进行了各种模拟,结果表明所提出的算法能够预测环境的动态信息并且优于传统方法。

个人总结:结合模仿学习与强化学习实现一个综合任务,即机器人导航与编队控制。使用融合奖函数引导训练,以及提出了一种面向编队的网络架构应用于LSTM网络感知任意数量障碍物。

介绍

   随着多智能体编队控制在各个领域的应用,越来越多的研究人员受到了关注。在leaderfollower 编队架构[1] 中,选择一个agent 作为leader,决定整个编队的运动,而其他agent 是需要跟随leader 的follower。编队维护和避撞是该过程中两个具有代表性的关键问题。编队控制中最具挑战性的困难是代理之间或与障碍物发生碰撞的风险。对于追随者来说,寻找无碰撞、时间高效以及编队维护的路径仍然具有挑战性。
   传统的避碰算法可以分为三类:离线轨迹规划方法、力场方法和感知避让方法。轨迹规划方法[2]试图提前计算无碰撞轨迹,然后将结果作为输入进行控制。但是这种方法计算量大,需要知道环境中的所有信息,不适合在动态环境中实现。力场方法 [3] 通过假设障碍物和代理周围的虚拟场来解决碰撞问题。但是,力场可能存在局部最小值,可能会出现目标不可达的问题。 senseand-avoid 方法 [4] 通过感知环境并相应地改变运动来防止碰撞,这种方法更人性化,在实践中得到广泛应用。
   现有的关于感知和避免的工作可以大致分为两类[5],基于反应的方法和基于预测的方法。前一种方法为当前几何状态指定一步交互规则,如基于模糊的避碰[6]和互易速度障碍(RVO)方法[7]-[10]。然而,这种方法在某些情况下似乎是短视和不安全的,因为它没有考虑环境的未来状态[5]。后一种方法预测障碍物的运动并预测环境的未来状态,然后计算出有远见的决策以避免碰撞。然而,基于预测的方法存在以下两个问题:一是模型和测量不确定性导致的估计不准确,二是计算复杂度高。
   最近,已经进行了大量研究以改进防撞方法。受深度学习和深度强化学习 (RL) [11]、[12] 强大的感知和学习能力的启发,在 [5]、[13] 中训练了一种代理级别的防撞策略,以克服基于 RVO 的限制方法。引入了价值网络训练算法,将昂贵的在线计算卸载到离线训练过程。此外,应用了长短期记忆网络(LSTM)[14]模块,使算法能够基于任意数量的其他代理[15]做出决策。 [16] 中提出了一个基于注意力模型的交互模块,用于对人机交互进行编码,以更好地预测未来状态。此外,原始传感器数据用于在 [17]-[19] 中生成无碰撞转向命令,其中实施了监督学习和强化学习架构并产生了不同的效果。然而,这些研究只关注多智能体避碰策略,而没有尝试扩展到更重要的问题,如编队控制,本文将对此进行讨论。
   基于强化学习的防撞策略的发展为具有防撞的编队控制带来了新的机会,本文将对此进行讨论。文中没有设计双模式控制策略 [20] 或在编队维护模型和避碰模型 [21] 之间切换控制,而是通过学习综合任务将基于学习的避碰方法扩展到编队控制。特别是,文中提出了一个两阶段的训练方案来学习行为策略,并设计了一个价值网络来估计状态值。在第一阶段,采用模仿学习方法[5]、[16],提出了一种基于共识和最优互反避碰(ORCA)的引导方法来生成用于初始化行为策略的演示轨迹;在第二阶段,实施 RL 方法来细化策略。在 RL 中设计奖励函数时综合考虑了形成因子和碰撞因子。此外,采用 LSTM 来感知环境中任意数量的障碍物的信息。
   本文的主要贡献是:

  1. 一种用于解决多目标优化问题的复合奖惩机制。
  2. 基于共识理论和 ORCA 的具有防撞策略的编队控制。
  3. 面向编队的感知网络架构。
  4. 与 ORCA 方法和指南方法相比,大多数评估标准都显示出显着改进的模拟结果。

前言

A.问题表述

   在一般的leader-follower 编队架构中,leader 自主导航,follower 必须承担编队维护的责任。同时,他们都应该具备避开障碍物的能力。在本文中,文中专注于对追随者的编队控制器的设计。特别是,训练一个基于深度神经网络的模型,通过模仿学习和强化学习获得上述两种能力。

   通过适当的控制策略,当通信拓扑满足最小生成树条件[22]时,可以实现形成。因此,这样的问题可以分解为几个子问题,每个子问题只考虑一个领导者和一个跟随者。如图 1 所示,本文讨论了一个由一个领导者和一个跟随者组成的领导者-跟随者配置的编队。蓝色圆圈代表领导者,绿色圆圈代表跟随者。蓝色星代表领导者的目标,绿色星代表追随者的目标。领导者和追随者之间的位置关系是一种需要保持的期望,稍后会更详细地讨论。红色圆圈代表障碍物,它们是随机设置的,分别朝着它们的中心对称位置移动。这样一来,中心区域就会变得异常拥挤,这是典型的复杂情况。领导者自主导航,而追随者由学习策略控制。任务的目标是保持队形,同时避免与任何障碍物发生碰撞。关键是建立适当的学习方法和培训结构,从而产生适当的政策。

对于每个智能体(领导者、追随者或障碍),让 sts_tst​,ata_tat​ 表示在时间 t 的状态和动作,让 △t\bigtriangleup t△t表示步骤时间。状态由可观察部分和隐藏部分组成。具体来说,文中假设智能体的位置pt=[ptx,pty]{\rm p}_t = [p_t^x,p_t^y]pt​=[ptx​,pty​]、速度vt=[vtx,vty]{\rm v}_t = [v_t^x,v_t^y]vt​=[vtx​,vty​]和半径rrr,可以被其他人观察到,而目标位置 pg=[pgx,pgy]{\rm p}_g = [p_{gx},p_{gy}]pg​=[pgx​,pgy​], 给定的首选速度vprefv_{pref}vpref​和航向角θt\theta_tθt​由它自己拥有。st~=[ptx,pty,vtx,vty,r]∈R5\tilde{ s_t}= [p_t^x,p_t^y,v_t^x,v_t^y,r]\in\mathbb{R} ^5st​~​=[ptx​,pty​,vtx​,vty​,r]∈R5表示可观察到的部分,st^=[pgx,pgy,vpref,θt]∈R4\hat{ s_t}= [p_{gx},p_{gy},v_{pref},\theta_t]\in\mathbb{R} ^4st​^​=[pgx​,pgy​,vpref​,θt​]∈R4表示隐藏的部分,有st=[st^,st]~s_t=[\hat{s_t},\tilde{s_t]}st​=[st​^​,st​]~​。对于动作ata_tat​ ,文中假设智能体在给出动作命令时可以立即响应,即vt]=[vtx,vty]=atv_t]=[v_t^x,v_t^y]=a_tvt​]=[vtx​,vty​]=at​ 。此外,上标F,L,OF,L,OF,L,O分别代表追随者、领导者和障碍物。例如,stFs_t^FstF​代表跟随者的状态,stLs_t^LstL​代表领导者的状态,而stO=[stO1,stO2,stO3,…]s_t^O=[s_t^{O_1},s_t^{O_2},s_t^{O_3},\dots]stO​=[stO1​​,stO2​​,stO3​​,…]代表障碍物的状态。目标是设计跟随者的策略π:(stF,s~tL,s~tO)↦at\pi:(s_t^F,\tilde{s}_t^L,\tilde{s}_t^O)\mapsto a_tπ:(stF​,s~tL​,s~tO​)↦at​来选择合适的动作来维持编队和避障。在学习结构中,这可以转化为具有目标函数和一组约束的优化问题。目标函数是多目标函数的一种形式,它由跟随者达到目标的时间 t 和编队维护的累积误差组成。同时,在约束中考虑了碰撞避免。最终,问题表述如下:


其中Others={pL,pO1,pO2,pO3,…}Others=\{{\rm p}^L,{\rm p}^{O_1},{\rm p}^{O_2},{\rm p}^{O_3},\dots\}Others={pL,pO1​,pO2​,pO3​,…}表示环境中除跟随者外的智能体,rˉ\bar{r}rˉ表示pˉ\bar{p}pˉ​对应的智能体的半径。HtH_tHt​是跟随者相对于领导者的预期相对偏移向量。 (2) 是避碰约束,(3) 是目标约束,(4) 是智能体的运动学约束。

深度强化学习

   RL [23] 是一类用于解决顺序决策问题的学习方法。在每一步,agent 通过与环境的交互获得奖励或惩罚。政策通过探索和训练逐步优化。由于近年来深度学习的快速发展,RL 已经获得了解决更高维度和更高难度问题的能力,例如玩 Atari 游戏 [11]、[12]。在本文中,具有避撞的编队控制问题可以表述为马尔可夫决策过程(MDP),这里通过强化学习来解决。文中定义stjn=(stF,s~tL,s~tO)s_t^{jn}=(s_t^F,\tilde{s}_t^L,\tilde{s}_t^O)stjn​=(stF​,s~tL​,s~tO​)为环境在时间 t 的联合状态,其中stFs_t^FstF​表示跟随者的完整状态,s~tL\tilde{s}_t^Ls~tL​表示领导者的可观察状态,而 s~tO\tilde{s}_t^Os~tO​表示障碍物的可观察状态。价值网络旨在估计状态的价值,其目标是找到最优价值函数,

其中Rt(stjs,at)R_t({\rm s}_t^{js},{\rm a}_t)Rt​(stjs​,at​)表示在时间ttt收到的奖励,γ\gammaγ是折扣因子。
最优策略 π∗:stjs↦at\pi^{\ast}:{\rm s}_t^{js}\mapsto {\rm a}_tπ∗:stjs​↦at​可以从价值函数中得到

其中P(stjs,at,st+△tjs)P({\rm s}_t^{js},{\rm a}_t,{\rm s}_{t+\triangle t}^{js})P(stjs​,at​,st+△tjs​)表示ttt和t+△tt+\triangle tt+△t之间的转移概率。

方法

   下面给出了用避碰解决编队控制问题的方案。文中遵循 [5] 中的主要 RL 框架。此外,本文提出了一种基于ORCA和传统编队控制的混合方法来指导模仿学习。同时,为了更好地感知环境信息,提出了一种面向编队的网络架构。如下图所示:

   整个训练过程分为两个阶段,模仿学习和强化学习。引导方法在第一阶段实施。基于共识的编队控制律生成控制命令ut{\rm u}_tut​,然后跟随者接收ut{\rm u}_tut​并改变当前速度。 ORCA 模块检测与首选速度的可能碰撞并最终产生无碰撞速度。每集结束后,演示模块保存轨迹元组(st,vt,Rt)(s_t,v_t,R_t)(st​,vt​,Rt​)用于计算状态-值对和训练人类网络。第二阶段,价值网络由人网络预先初始化,然后采用RL方法优化策略。此外,实现目标网络以稳定整体网络性能。请注意,人际网络、在线价值网络和目标价值网络的结构是相同的。文中的方法的细节将在本节的以下部分讨论。

A.状态空间

   由于坐标信息在不同坐标系下取值不同,可能导致网络不稳定,文中从跟随者的第一人称视角对环境信息进行变换。特别地,对于每个状态对stpair=(stF,stL){\rm s}_t^{pair}=({\rm s}_t^{F},{\rm s}_t^{L})stpair​=(stF​,stL​)或者stpair=(stF,stOi),i∈1,2,3,…,{\rm s}_t^{pair}=({\rm s}_t^{F},{\rm s}_t^{O_i}),i\in1,2,3,\dots,stpair​=(stF​,stOi​​),i∈1,2,3,…,

其中stF′=[dg,vpref,θt′,vtx′,vty′,r]{\rm s}_t^{F'}=[d_g,v_{pref},\theta'_t,v_t^{x'},v_t^{y'},r]stF′​=[dg​,vpref​,θt′​,vtx′​,vty′​,r]表示其他代理的转换状态。 并且st′=[p~tx′,p~ty′,v~tx′,v~ty′,r~,d,r+r~]{\rm s}'_t=[{\tilde p}_t^{x'},{\tilde p}_t^{y'},{\tilde v}_t^{x'},{\tilde v}_t^{y'},\tilde r,d,r+{\tilde r}]st′​=[p~​tx′​,p~​ty′​,v~tx′​,v~ty′​,r~,d,r+r~]表示另一个代理的转换状态。dg=∥pg−ptF∥2d_g=\left \| {\rm p}_g-{\rm p}_t^F \right \| _2dg​=∥∥​pg​−ptF​∥∥​2​是追随者到目标的距离,dg=∥ptF−p~t∥2d_g=\left \| {\rm p_t^F}-{\rm \tilde p}_t \right \| _2dg​=∥∥​ptF​−p~​t​∥∥​2​是到其他智能体的距离。

B.动作空间

   如下图所示,动作空间是每个步骤中可选动作的集合。文中假设智能体有一个完整的,它的动作空间由七个角度选择和五个速度选择组成。动作空间的总大小为 35,可以认为是近似连续的。

C.奖励函数

   奖励函数的设计在强化学习中尤为重要。适当的奖励函数保证了规定任务的完成,而不适当的函数使训练变得毫无意义。
   为了重点解决编队控制问题,这里提出编队评价函数来评价编队质量和计算奖励。特别是编队跟踪误差实时反映了质量。文中将期望位置和实际位置之间的欧几里得距离作为输入。形成的奖励函数定义为:


errorterror_terrort​表示在ttt时刻形成的误差。
   奖励在一定范围内是平滑的,当误差超过限制时会变大,如下图所示。这样,文中期望在没有跟踪误差或跟踪误差很小的情况下实现编队。至于避免碰撞,文中遵循作品 [5]、[15]、[16] 的公式。此外,文中修改了系数以确保奖励的平均分配。

其中dt=min{∥ptF−pˉt∥∣pˉt∈Others}d_t={\rm min}\{ \left \| {\rm p_t^F}-{\rm \bar p}_t \right \||{\rm \bar p}_t \in{Others}\}dt​=min{∥∥​ptF​−pˉ​t​∥∥​∣pˉ​t​∈Others} 表示跟随者和其他代理之间的最小间隔距离。
   在上述RtFR_t^FRtF​和RtCAR_t^{CA}RtCA​的基础上,得到综合奖励函数如下。

D.网络构造

   很明显,并不是所有的环境信息都需要在每个步骤的决策过程中进行处理。根据距离和航向角,每个智能体对行为策略的影响程度不同。但是,实际上影响更大的代理的数量是不确定的。为了解决这个问题,文中按照[15]中的方法实现了LSTM来处理环境信息。 LSTM 通常用于处理数据的时间序列,而 [15] 利用其编码不依赖于时间的信息序列的能力。给定足够大的隐藏状态,就有足够的空间来编码大量障碍物的状态。此外,为了减轻障碍物忘记早期状态的影响,状态按照距离的倒序馈送到跟随者,这意味着最近的障碍物对最终隐藏状态的影响最大。在时间 t,障碍物的状态被视为 LSTM 网络的输入序列。 LSTM 网络对它们进行一一处理,最终生成所有障碍物的编码信息。这样,可以解决任意数量的障碍物的问题。如图 5 所示,LSTM 接收st01s_t^{0_1}st01​​生成其隐藏状态h1h_1h1​,然后接收h1h_1h1​和st02s_t^{0_2}st02​​生成h2h_2h2​ ,依此类推。最后,LSTM 在处理完所有代理后输出最后一个隐藏状态 hnh_nhn​。直观地说,hnh_nhn​包含有关所有障碍物的编码信息。

   除了处理避撞问题外,编队维护问题也有待解决。显然,leader的状态需要单独处理。因此,文中设计了定制的网络架构来处理编队控制问题。如图下图所示,绿色立方体代表跟随者的状态,而蓝色立方体代表代表领导者的状态。红色长方体代表处理障碍物状态的 LSTM 模块。红色立方体是 LSTM 的最后一个隐藏状态,代表了所有s~tOall{\tilde s}_t^{O^{all}}s~tOall​的障碍物的编码信息。跟随者、领导者和障碍物的状态被组合起来,然后馈送到 3 个全连接 (FC) 层。最终,网络输出当前状态的估计值。

   在所提出的架构中,领导者和跟随者的状态被平等对待,以引导神经网络注意形成。这样,编队控制问题将得到更好的处理。

E.训练算法

   为了适应编队控制问题,文中将训练分为两个阶段:模仿学习和强化学习。第一阶段,为了减少随机搜索的盲目性,提高训练效率,提出了基于ORCA的编队控制(ORCA-F)算法作为指导算法在环境中执行并生成演示轨迹,本文将对此进行讨论。稍后详细说明。之后,通过对示范轨迹的模仿学习来初始化价值网络。第二阶段,在之前设计的基础上采用强化学习方法。在这个阶段,可以通过反复试验逐步优化策略。、
   为了综合处理编队维护和避碰问题,文中提出了基于编队控制律的ORCA-F方法和ORCA避碰方法。编队控制器的输出作为ORCA模块中的首选速度,然后ORCA算法生成避撞速度。这样,在一定范围内没有碰撞的可能性时,阵型最终会稳定下来。编队控制器设计成线性控制器的形式。稳定性分析如下。
为了平滑速度,文中选择二阶系统作为参考。考虑跟随者的以下二阶动力学

其中PF=[PxF,PyF]T{\rm P}^F=[P_x^F,P_y^F]^TPF=[PxF​,PyF​]T、VF=[VxF,VyF]T{\rm V}^F=[V_x^F,V_y^F]^TVF=[VxF​,VyF​]T、uF=[uxF,uyF]T{\rm u}^F=[u_x^F,u_y^F]^TuF=[uxF​,uyF​]T分别表示跟随器的位置、速度和控制输入向量。
   令PL=[PxF,PyF]T{\rm P}^L=[P_x^F,P_y^F]^TPL=[PxF​,PyF​]T和VL=[VxL,VyL]T{\rm V}^L=[V_x^L,V_y^L]^TVL=[VxL​,VyL​]T表示领导者的位置和速度矢量。另外,follower 应该在保持一定距离的情况下跟踪 leader 的轨迹,Hp=[Hx,Hy]T{\rm H}^p=[H_x,H_y]^THp=[Hx​,Hy​]T表示pF{\rm p}^FpF相对于pL{\rm p}^LpL的期望相对偏移向量。
   对于ξF=[(PF)T,(VF)T]T\xi ^F=[({\rm P}^F)^T,({\rm V}^F)^T]TξF=[(PF)T,(VF)T]T、ξL=[(PL)T,(VL)T]T\xi ^L=[({\rm P}^L)^T,({\rm V}^L)^T]TξL=[(PL)T,(VL)T]T和H=[pT,0,0]T{\rm H}=[{\rm p}^T,0,0]^TH=[pT,0,0]T。如果对于任何给定的有界初始状态,则认为跟随者和领导者实现了编队跟踪。

设计以下控制协议:

其中k1,k2>0k_1,k_2 > 0k1​,k2​>0。
   定理:在控制协议(13)下,可以实现对跟随者和领导者的编队跟踪。
   证明:令 e=ξF−ξP−H{\rm e}=\xi ^F-\xi ^P-{\rm H}e=ξF−ξP−H为编队跟踪误差。则系统(11)可改写为

其中⊗\otimes⊗代表Kronecker积,I2I_2I2​是一个二维单位矩阵。
   显然矩阵 M 是 Hurwitz,所以系统 (11) 是渐近稳定的,即e→0{\rm e}\rightarrow 0e→0 ,如t→0t\rightarrow 0t→0 。然后在控制协议(13)下,可以实现对跟随者和领导者的编队跟踪。

   在模仿学习之后,采用深度强化学习来优化模型的行为策略。整个训练算法在算法 1 中进行了概述。

模拟和结果

A.仿真设置

   为了验证所提算法的有效性,本文选择了四种典型场景。主要区别在于编队配置和环境中的障碍物数量。特别地,考虑了水平形成和垂直形成。场景 1 和 2 是水平编队,分别有 4 个和 7 个障碍物,而场景 3 和 4 是垂直编队。

B.参数

   在整个实验过程中,使用配备 Intel XEON E3-1505M(高达 3.7GHz)处理器、NVIDIA Quadro M2200 (4GB) GPU 和 16GB RAM 的计算机进行训练和测试。 50000集在四障碍和七障碍场景中大约需要30到40个小时。训练参数如表 1 所示。

C.训练结果

   如下图所示,给出了成功率、总奖励和达到目标的时间的曲线作为训练的指标。文中发现曲线在所有情况下都收敛到稳健的性能,这意味着模型最终趋于稳定。此外,所有曲线在一开始就迅速恶化。原因之一是模型在开始时几乎随机采取行动。另一个可能的原因是模型学习到的策略与之前模仿学习中学习到的人类经验有质的不同。从曲线中文中可以看出,模型的最终性能比开始时要好得多。这是因为模型最终可以通过长期的探索找到更好的策略。此外,这表明通过 RL 学习的策略比引导方法要好得多。

D.轨迹分析

   如下图所示,给出了全局轨迹以更直观地评估性能。文中为每个场景选择一个模拟结果。并且文中发现follower可以在避免碰撞的情况下继续跟随leader,这意味着follower在所有场景中都很好地完成了任务。结果表明,该算法在处理带避碰的编队控制问题上具有良好的效果和泛化性。

   此外,本文还对 ORCA 和 ORCA-F 进行了比较模拟。对于每种方法,每个场景案例都要测试 500 次。在比较中选择了以下性能指标。

  1. 导航时间是达到目标的导航时间(以秒为单位)。
  2. 成功率是编队在一定时间内达到目标而不发生碰撞的比率。
  3. 总奖励是追随者在一集中的折扣累积奖励。
  4. 危险频率是在一个事件中与其他代理过于接近 (dt<0.2d_t<0.2dt​<0.2) 的百分比。
  5. avg dis 是不适感的平均距离 (dt<0.2d_t<0.2dt​<0.2) 步。
       通过分析表 2 中的数据,文中可以很容易地发现,所提出的算法比其他算法具有更好的性能。 ORCA方法只考虑了避碰,使得时间最短,但在成功率和奖励上表现不佳。 ORCA-F方法使用编队控制器的输出作为ORCA的输入,在成功率和奖励方面带来了一定的提升。此外,由于ORCA算法的设计,ORCA和ORCA-F中的危险频率和平均距离都很高。

       至于文中的方法,文中可以发现该模型结合了 ORCA 和 ORCA-F 的优点。如表 2 和图 9 所示,成功率大大提高,所消耗的时间几乎相同。与编队导向控制算法ORCA-F相比,奖励略有下降,但危险频率和平均最小距离都有显着提高。表明所提出的算法比传统方法具有更好的质量。

关键帧分析

   为了进一步说明通过文中的方法学习到的行为策略的有效性,选择了状态和动作的几个关键帧进行分析。如下图所示,左侧表示环境状态,右侧表示具有可选动作的值估计。

   在图 (a)中,领导者正在向目标移动,而跟随者刚刚避开红色障碍物,导致编队维护误差较大。因此,最大的估计值落在图(b)的左上方,其目的是以最快的速度跟上领导者并保持队形。在图 © 中,这一集才刚刚开始,跟随者与左侧的障碍物几乎处于相同的移动方向,这意味着它可能会在某些点发生碰撞。因此,模型选择减速并稍微右转,等待障碍物先通过。通过以上分析,文中可以发现该模型能够预测环境的动态信息,进而采取合理的行动。

结论

   本文通过深度强化学习解决了避免碰撞的编队控制问题。特别是,文中设计了一个面向编队的网络架构来预测环境的动态信息。此外,还提供了一个全面的奖励功能来领导训练。仿真结果表明,文中的方法结合了面向避碰方法和面向编队方法的优点。与避碰方法相比,文中的方法在编队维护方面有显着改进。同时,RL学习的避碰策略可以与障碍物保持更远的距离并获得更高的成功率。与面向编队的方法相比,文中的方法可以更好地处理避障问题,尤其是在成功率和危险频率方面优于传统方法。此外,文中的方法显示了实时实现的能力,文中期待将来在地面机器人系统中应用文中的方法。

论文研读笔记(二)——通过深度强化学习避免碰撞的编队控制相关推荐

  1. QUANT[14]强化学习RL论文1:通过深度强化学习实现人的层次控制

    论文<通过深度强化学习实现人的层次控制>解读 目录 1. 摘要 2.模型 3. 实验设置 4. 结果 5. 结论 6.正文翻译 1. 摘要 The theory of reinforcem ...

  2. 【论文笔记】基于深度强化学习的机器人操作行为研究综述

    目录 摘要 关键词 1 引言 2 概念和术语 2.1 深度学习 2.2 强化学习 2.2.1 强化学习算法原理 2.2.2 强化学习算法分类 1. 无模型(model-free)算法和基于模型(mod ...

  3. 深度学习(四十二)——深度强化学习(5)PPO, IMPALA, Hierarchical RL, OpenAI

    PPO(Proximal Policy Optimization) PPO是2017年由OpenAI提出的一种基于随机策略的DRL算法,也是当前OpenAI的默认算法. PPO是一种Actor-Cri ...

  4. 论文研读笔记(二)——VGG

    论文研读系列汇总: 1.AlexNet论文研读 2.VGG论文研读 3.GoogLeNet论文研读 4.Faster RCNN论文研读 5.ResNet 论文研读 6.SENet 论文研读 7.CTP ...

  5. 强化学习论文阅读笔记(一)——强化学习研究综述_高阳

    强化学习研究综述_高阳 目录 强化学习研究综述_高阳 一.与其他机器学习对比 二.分类 三.最优搜索型强化学习算法 四.经验强化型强化学习算法 五.部分感知 六.函数估计 七.多Agent强化学习 八 ...

  6. 【ICML2021】 9篇RL论文作者汪昭然:构建“元宇宙”和理论基础,让深度强化学习从虚拟走进现实...

    深度强化学习实验室 官网:http://www.neurondance.com/ 论坛:http://deeprl.neurondance.com/ 来源:转载自AI科技评论 作者 | 陈彩娴 深度强 ...

  7. 【重磅整理】提前看287篇ICLR-2021 深度强化学习领域论文得分汇总列表

    深度强化学习实验室 来源:ICLR2021 编辑:DeepRL [1]. What Matters for On-Policy Deep Actor-Critic Methods? A Large-S ...

  8. ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考. 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 点击本文底部的「阅读原文」即刻加入社区 ...

  9. (转) 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文)

    本文转自:http://mp.weixin.qq.com/s/aAHbybdbs_GtY8OyU6h5WA 专题 | 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文) 原创 201 ...

最新文章

  1. 【动态规划】状态压缩动态规划
  2. 【重发】终于提交了项目第一个版本到git@osc了。兴奋ing
  3. 搞懂toString()与valueOf()的区别
  4. 面试官 | SpringBoot 中如何实现异步请求和异步调用?
  5. 一行命令自动给图片戴上口罩,硬核操作!
  6. Java面试不得不知的问题(一)
  7. shell 面试题 (一) 待续
  8. 红旗Linux职称考试模块,计算机职称考试红旗Linux Desktop 6.0考试大纲
  9. 创建MyOffice项目
  10. [CM311-1A]-全网最全 Android 用户管理及用户应用权限
  11. 周立功linux内核,极速搭建周立功IMX287A ARM Linux开发环境
  12. HTML---网络编程基础知识(2)
  13. apt-get update 更新失败----如何清除破损而且陈旧的PPA仓库 (W: Failed to fetch http://ppa.launchpad.net/jonathonf/pyt)
  14. 农历php,php 阴历-农历-转换类代码
  15. FATAL: the database system is in recovery mode解决一例
  16. 程序猿生存指南-43 温柔以待
  17. [SSL_CHX][2021-8-18]角谷猜想
  18. RabbitMQ的安装与配置
  19. 仿163邮箱上传多附件,有点酷
  20. FairyGUI增益BUFF数值改变的显示

热门文章

  1. 这个应该是全网最全的接口测试工具之postman
  2. imindmap之云朵技巧
  3. 128*160屏幕的手机(如5200等)专用的QQ2007 下载地址
  4. python输出文本框_python GUI库图形界面开发之PyQt5多行文本框控件QTextEdit详细使用方...
  5. 一文彻底掌握用户态协议栈,一看就懂的
  6. html 按钮 按下弹起,当按钮按下按钮时,在HTML按钮上捕获mousedown事件
  7. 短视频seo优化,短视频seo
  8. 结构体测验:按时间顺序给出奥运会的获奖情况,根据获奖情况输出当前奥运金牌榜。
  9. 安卓一键分享到qq,微信,微博,官方SDK非第三方
  10. 超好用!React 封装全屏弹框