基于障碍函数的移动机器人编队控制安全强化学习(Barrier Function-based Safe Reinforcement Learning for Formation Control of Mobile Robots)

最近我在学习多机器人编队导航的论文,此篇文章为“X. Zhang, Y. Peng, W. Pan, X. Xu and H. Xie, “Barrier Function-based Safe Reinforcement Learning for Formation Control of Mobile Robots,” 2022 International Conference on Robotics and Automation (ICRA), 2022, pp. 5532-5538, doi: 10.1109/ICRA46639.2022.9811604.”的论文学习笔记,只供学习使用,不作商业用途,侵权删除。并且本人学术功底有限,如果有思路不正确的地方欢迎批评指正!

摘要

   分布式模型预测控制(DMPC)关注如何有效地在线控制多个有约束的机器人系统。然而,动态系统模型和约束的非线性、非凸性和强互连可以使实时和现实世界的 DMPC 实现变得不平凡。强化学习 (RL) 算法有望用于控制策略设计。然而,如何在 RL 的状态约束方面确保安全仍然是一个重要问题。提出一种基于障碍函数的安全强化学习算法,用于状态约束下的非线性多机器人系统DMPC。所提出的方法由几个基于本地学习的 MPC 监管机构组成。每个与本地系统相关联的调节器都使用安全的强化学习算法以分布式方式学习和部署本地控制策略,即仅在相邻代理之间使用状态信息。作为所提出算法的一个突出特点,文中提出了一种新颖的基于障碍的策略结构来确保安全,该结构具有清晰的机制解释。具有防撞功能的移动机器人的编队控制的模拟和真实世界实验都表明了所提出的 DMPC 安全强化学习算法的有效性。

介绍

   近年来,多机器人系统的分布式模型预测控制(DMPC)在[1]-[3]系统中受到了广泛的关注。与集中控制解决方案相比,分布式控制结构更高效、可扩展、维护[4]更友好。一个基于状态约束的多机器人控制的解决方案依赖于一个基于模型预测控制(MPC)[5],[6]的分布式结构。在这种情况下,许多DMPC方法被提出为[7]-[11],其中将局部MPC问题转化为几个优化问题,这些问题可以与邻居的信息交换并行在线解决。这样的过程需要定期访问本地的板载计算资源。为了减少计算负担,提出了一种显式分布式MPC算法[12],该算法首先离线计算一组与标记的单独约束区域相关联的分段显式控制策略。然后,根据州所在的区域在线搜索控制策略。然而,该方法仅针对线性系统进行设计,并依赖于系统的可分性假设。
   在不同的环境下,基于强化学习(RL)和自适应动态规划(ADP)的分布式解决方案在过去的几十年[13]-[19]也受到了极大的关注。在基于RL的分布式方法中,RL和ADP通常依赖于参与者-批评结构,以正向的方式学习无限水平最优控制问题的近最优控制策略。与DMPC相比,分布式RL方法[13]-[19]可以更有效地解决优化问题。此外,由此产生的控制策略可以离线学习和在线部署,大大减少了计算负载。鉴于关键特征,演员-批评强化学习被用于一种后退的方式来学习[20]-[22]中集中式MPC的显式控制策略。在本文中,文中将工作[20]-[22]扩展到多代理的分布式控制场景。
至关重要的是,在许多安全关键分布式控制应用中,状态约束是一项困难的任务,也是一项艰巨的任务,也是不可或缺的要求。据作者所知,这个问题在上述基于学习的MPC[20]、[21]和RL算法[13]-[19]、[23]、[24]中还没有得到解决。在[25]中,提出了一种用于多机器人运动规划的安全强化学习算法。利用基于李亚普诺夫障碍的代价函数整形方法的代价函数,利用脉冲势场重建代价函数。然而,这种成本函数塑造处理可能会引入成本函数梯度的突变,容易导致行为者网络和批评者网络的权值的发散行为。
   本文提出了一种基于屏障函数的非线性多机器人系统,针对分布式MPC(DMPC)的安全强化学习(BSRL)方法,称为SL-DMPC。该方法由几个基于BSRL的MPC调节器组成。每个调节器与本地系统相关联,以分布式的方式使用BSRL算法学习和部署本地MPC策略,即只在邻居代理之间进行状态信息交换。请注意,如何保证在国家约束下学习安全在强化学习社区仍然是一个挑战。在提出的BSRL算法中,不同于[25],[27],[28]不同,文中提出了一种新的基于障碍的控制策略结构,以保证状态约束下的学习安全,它对安全证书有清晰的机制解释。
   与带有数值解的DMPC不同,SL-DMPC的实现依赖于几种基于障碍的行为评论家RL算法,为每个代理生成一个局部显式的状态反馈控制策略,而不是使用策略梯度的开环控制序列。这些本地控制策略可以同步学习和部署,也可以离线学习并在线部署。此外,还证明了基于屏障的强化学习算法在每个预测领域的安全保证。通过了模拟和真实的移动机器人编队控制实验,证明了所提出的SL-DMPC的有效性。
   本文的其余部分组织如下。第二节介绍了线性动力系统的问题公式和DMPC的初步介绍。在第三节中,提出了针对非线性系统的SLDMPC算法。并对其进行了理论分析。在第四节中,演示了移动机器人非线性编队控制的仿真和实际实验结果。结论见第五节。
符号:文中使用Nl1l2\mathbb{N} _{l_1}^{l_2}Nl1​l2​​来表示整数l1,l1+1,…,l2l_1,l_1+1,\dots ,l_2l1​,l1​+1,…,l2​的集合。对于一组载体zi∈Rni,i∈N1Mz_i\in\mathbb{R} ^{n_i},i\in\mathbb{N}_1^Mzi​∈Rni​,i∈N1M​,文中使用coli∈N1M(zi){\rm col}_{i\in\mathbb{N}_1^{M(z_i)}}coli∈N1M(zi​)​​表示[z1T,…,zMT]T[z_1^{\rm T},\dots ,z_M^{\rm T}]^{\rm T}[z1T​,…,zMT​]T,其中MMM是一个整数。文中使用u(k)u(k)u(k)表示由控制序列u(k),…,u(k+N−1)u(k),\dots ,u(k+N-1)u(k),…,u(k+N−1)形成的控制策略,其中NNN为MPC的预测范围,kkk为离散时间指数。

对DMPC的问题制定和初步研究

A.问题表述

   所控制的整个系统由MMM个离散时间、非线性、相互作用的子系统组成,描述为:

   对于∀NiM\forall \mathbb{N}_i^M∀NiM​,其中xi∈χi⊆Rnix_i\in\chi _i\subseteq \mathbb{R}^{n_i}xi​∈χi​⊆Rni​和ui⊆Rmiu _i\subseteq \mathbb{R}^{m_i}ui​⊆Rmi​状态和输入变量与子系统∑i{\sum}_i∑i​,而kkk是离散时间指数,fi∈Rnif_i \in\mathbb{R}^{n_i}fi​∈Rni​和gi∈Rni×mig_i \in\mathbb{R}^{n_i\times m_i}gi​∈Rni​×mi​平滑状态转换和输入映射函数和fi(0)=0f_i(0)=0fi​(0)=0。本地状态集被定义为χi={xi∈R∣Bit(xi)≤0,t∈N1qi}\chi _i=\{x_i\in \mathbb{R}|B_i^t(x_i)\le0,t\in \mathbb{N}^{q_i}_1\}χi​={xi​∈R∣Bit​(xi​)≤0,t∈N1qi​​},i∈N1Mi \in \mathbb{N}^M_1i∈N1M​,BitB_i^tBit​是一个C1C_1C1​函数,和χ=χ1×⋯×χM\chi=\chi_1\times\dots\times\chi_Mχ=χ1​×⋯×χM​。
从(1)收集所有子系统,整体集中的动态模型,记为∑\sum∑,可以写为:

其中x=coli∈N1M(xi)∈Rnx={\rm col}_{i\in\mathbb{N}_1^M}(x_i)\in\mathbb{R}^nx=coli∈N1M​​(xi​)∈Rn,n=∑i=1Mnin={\sum}_{i=1}^Mn_in=∑i=1M​ni​,u=coli∈N1M(ui)∈Rmu={\rm col}_{i\in\mathbb{N}_1^M}(u_i)\in\mathbb{R}^mu=coli∈N1M​​(ui​)∈Rm,m=∑i=1Mmim={\sum}_{i=1}^Mm_im=∑i=1M​mi​,F=(f1,…,fM)F=(f_1,\dots,f_M)F=(f1​,…,fM​),GGG的对角线块是输入矩阵gig_igi​,i∈N1Mi\in\mathbb{N}^M_1i∈N1M​。现在文中给出了一个多机器人系统中的邻居子系统的定义。
定义1(邻居子系统):对于子系统∑i{\sum}_i∑i​,状态xjx_jxj​是∑i{\sum}_i∑i​的邻居状态如果xjax^a_jxja​,xjbx^b_jxjb​当xjb≠xjbx^b_j\ne x^b_jxjb​=xjb​表示fif_ifi​值不同,则状态xix_ixi​是邻居状态。状态xNi∈RnNi是所有相邻态的集合,即xNi=colj∈Nixj,其中Ni是与相邻态相关的所有指标j的集合。

   下面文中给出了下面对机器人之间的通信协议的假设:
假设1(通信协议):允许相邻子系统之间的通信,即如果i∈Nj或j∈Ni,状态信息可以在Σi和Σj之间进行双向交换。
本文考虑的控制目标是将x(k)→0和u(k)→0驱动为k→+∞,同时对所有i∈NM1强制执行局部状态约束xi(k)∈Xi。

B.线性系统的DMPC的初步研究

鉴于MPC具有明确处理状态约束的能力,DMPC可以很自然地用于解决所考虑的多机器人控制问题。首先,让文中回顾一下线性系统的DMPC公式[29]。在每个时间步长kkk处,应尽量减少以下有限视界合作代价函数:

其中,全局成本JJJ被定义为:

   具有代价(5)的(4)中的优化问题可以通过模型(2)、局部状态约束xi(k+j)∈χi,∀j∈N1N,i∈N1Mx_i(k+j)\in\chi_i,\forall j\in\mathbb{N}_1^N,i\in\mathbb{N}_1^Mxi​(k+j)∈χi​,∀j∈N1N​,i∈N1M​进行数值求解。这个问题可以通过数值优化工具以分布式的方式来解决,参见[29],[30],因为局部状态约束是解耦的。因此,可以为每个预测范围中的每个代理计算局部开环控制序列。与在动态规划的过程中一样,应用第一个控制动作,并在下一个时刻重复求解(4)。

C.屏障功能和安全控制的定义

   文中引入了基于状态约束的障碍函数的定义,并在基于障碍函数的强化学习算法中用于状态约束的满足。定义2(势垒函数):对于任何集合χi,i∈N1M\chi _i,i\in\mathbb{N}^M_1χi​,i∈N1M​,一个势垒函数被定义为:

定义3(预测范围内的安全控制):在一般时间k时,一个记为u(k)u(k)u(k)的控制策略,如果所得到的状态演化满足x(k+1),…,x(k+N)∈χnx(k+1),\dots,x(k+N)\in\chi^nx(k+1),…,x(k+N)∈χn,则对(2)是安全的.

基于屏障函数的DMPC安全强化学习

   由于动态系统模型(1)是非线性甚至非凸的,因此使用像(4)这样的DMPC来解决所考虑的多机器人控制问题不是平凡的。本节提出了一种基于障碍函数的安全强化学习算法来求解DMPC,即SL-DMPC,以分布式的方式学习每个代理的局部状态反馈控制策略。在第三节-A中,文中首先提出了SL-DMPC的主要思想,其中使用了一个基于屏障函数的控制策略来处理状态约束。并给出了该方法的安全保证和收敛性分析。在第三-B节中,提出了基于屏障函数的强化学习算法来实现SL-DMPC。

A.SL-DMPC的设计

   设计一个解决DMPC的RL算法的主要困难在于保证在局部状态约束下的安全。为了解决这个问题,在SL-DMPC中,文中提出了一个基于屏障函数的控制策略结构来保证安全性。为此,文中首先用障碍函数重建性能指标J,即:

其中阶段的花费是:

是一个调优参数。以集体形式,对于任何τ∈[k,k+N−1]τ∈[k,k+N−1]τ∈[k,k+N−1],都可以编写:

   为了以分布式的方式优化(8),文中为子系统ΣiΣ_iΣi​构建了一个基于本地屏障的控制策略:

其中,vi∈Rmiv_i∈\mathbb{R}^{m_i}vi​∈Rmi​是一个新的虚拟控制策略,而Li∈Rmi×niL_i∈\mathbb{R}^{m_i\times n_i}Li​∈Rmi​×ni​是一个需要进一步优化的决策变量(在第三节的B中延迟)。
备注1:(9)中的第二项是产生与第i个代理相关的局部排斥力,它随着状态xix_ixi​向χi\chi_iχi​的边界移动而增长。通过这样做,可以限制局部状态xix_ixi​的内部,即通过(9)中状态约束的屏障函数的梯度来保证安全。
   在任意时间即时τ∈[k,k+N−1]τ∈[k,k+N−1]τ∈[k,k+N−1],设Jˉ∗(x(τ))\bar J^∗(x(τ))Jˉ∗(x(τ))为控制结构(9)下的最优值函数,则可以将离散时间HJB方程写为:

对于每个局部最优控制策略:

对于i∈N1Mi∈N^M_1i∈N1M​,其中Nˉi\bar N_iNˉi​是子系统的集合与其相邻的子系统的集合。
   与经典的数值优化方法不同,文中采用下面的SL-DMPC算法来求解(10)和(11),见算法1。

   在下面的定理中,文中证明了在每个预测范围内,(12)中的控制策略是安全的(见定义3),并且控制策略和值函数最终也将分别收敛到它们的最优值,即:

定理1(安全保证和收敛性):设u0(k)是安全策略,为初值函数。

然后在迭代(12)下,它认为:

证明. 1: 首先,通过收集所有i∈NM1的迭代步骤(12a),将得到以下集中的形式:

此外,由于uiu_iui​只与xNi相x_{N_i}相xNi​​相关,因此(12b)等价于:

并且相当于政策更新的集中式形式,即,

然后,文中可以将[31]中的证明参数应用于集中式系统,从而证明了这一点。
Jˉt+1(x(τ))≤Vt(x(τ))≤Jˉt(x(τ)),∀τ∈[k,k+N−1]\bar J^{t+1}(x(τ )) ≤ V^t(x(τ )) ≤ \bar J^t(x(τ )), \forall τ ∈ [k, k + N − 1]Jˉt+1(x(τ))≤Vt(x(τ))≤Jˉt(x(τ)),∀τ∈[k,k+N−1]
此外,根据[31],第二点和第三点可以很自然地得到证明。有兴趣的读者可以参考[31]了解更多细节。

B.基于RL的分布式边界函数的DMPC

   下面,算法1将使用基于行为评论家框架[16]的基于分布式屏障函数的RL算法来实现。与DMPC的数值解相比,这种实现的优点是为每个代理生成一个局部显式的状态反馈控制策略,而不是一个开环控制序列。这允许直接离线部署学习到的控制策略。所提出的基于分布式屏障的RL由MMM个行为评论家网络对组成,每个网络对为每个局部代理设计,以学习局部控制策略和相邻代理之间信息交换的值函数。对于任何子系统i∈N1Mi∈\mathbb{N}^M_1i∈N1M​,批评者网络被构建为:

其中W1c,i∈RNc,i×niW^1{c,i}∈\mathbb{R}^{N_{c,i}×n_i}W1c,i∈RNc,i​×ni​是加权矩阵,σc,i∈RNc,iσ_{c,i}∈\mathbb{R}^{N_{c,i}}σc,i​∈RNc,i​是一个由激活函数组成的向量。

为了最小化Jˉi∗\bar J^∗_iJˉi∗​和Jˉ^i\hat{\bar{J} }_iJˉ^i​之间的偏差,鉴于(12a),文中将以下Jˉid\bar J^d_iJˉid​定义为Jˉ^i\hat{\bar{J} }_iJˉ^i​的期望值,如下:

为局部近似误差。以下是每个i∈N1Mi∈N^M_1i∈N1M​的二次代价要最小化,即,

其中qc,1,qc,2>0q{c,1},q_{c,2}>0qc,1,qc,2​>0是调优参数。最小化(17)导致加权矩阵Wc,iW_{c,i}Wc,i​的更新规则为:

其中,γc,iγ_{c,i}γc,i​为局部学习率。
同样地,文中为每个代理构造基于屏障的参与者,即,

为加权矩阵,其中σa,i∈RuNσ_a,i∈\mathbb{R}^N_uσa​,i∈RuN​,iii是一个由激活函数组成的向量,L^i∈Rmi×ni\hat{L}_i∈\mathbb{R}^{mi×ni}L^i​∈Rmi×ni是LiL_iLi​的近似值。针对(12b),文中设计了一个期望的ui(τ)u_i(τ)ui​(τ)值,即uid(τ)u_i^d(τ)uid​(τ)为

设ϵa,i(τ)=uid(τ)−ui(τ)\epsilon _{a,i}(τ)=u^d_i(τ)−u_i(τ)ϵa,i​(τ)=uid​(τ)−ui​(τ),其中ϵa,i\epsilon _{a,i}ϵa,i​是近似误差。在每次即时τ∈[k,k+N−1]τ∈[k,k+N−1]τ∈[k,k+N−1],每个代理最小化ϵa,i(τ)\epsilon_{a,i}(τ)ϵa,i​(τ),即,δa,i(τ)=∥ϵa,i(τ)∥δ_{a,i}(τ)=\left \| \epsilon_{a,i}(τ) \right \|δa,i​(τ)=∥ϵa,i​(τ)∥,导致Wa,iW_{a,i}Wa,i​和L^i\hat L_iL^i​的更新规则

其中,γa,iγ_{a,i}γa,i​为局部学习率。
   所提出的基于分布式屏障函数的安全RL算法在每个预测范围[k,k+N][k,k+N][k,k+N]内的学习步骤可以总结如下。对于τ=k,k+1,⋅⋅⋅,k+N−1τ=k,k+1,···,k+N−1τ=k,k+1,⋅⋅⋅,k+N−1,重复执行以下步骤:

  • 使用(1)生成xi(τ+1)x_i(τ + 1)xi​(τ+1),∀i∈N1M∀i ∈ \mathbb{N}^M_1∀i∈N1M​
  • 用(16)和(20)计算J^id(xNi(τ))\hat{J}_i^d(x_{N_i}(τ))J^id​(xNi​​(τ))和uid(τ)u^d_i(τ)uid​(τ)使用xNi(τ+1)x_{N_i}(τ+1)xNi​​(τ+1)和xj(τ)x_j(τ)xj​(τ),对于所有j∈Nij∈N_ij∈Ni​。
  • 并行更新Wc,i(τ+1)W_{c,i}(τ+1)Wc,i​(τ+1)与(18)和Wa,i(τ+1)W_{a,i}(τ+1)Wa,i​(τ+1),L^i(τ+1)\hat L_i(τ+1)L^i​(τ+1)与(21)。

   在预测范围[k,k+N][k,k+N][k,k+N]的学习过程后,将用(20)计算的第一个控制动作ui(xNi(k))u_i(x_{N_i}(k))ui​(xNi​​(k))应用于(1)。然后在随后的预测视界[k+1,k+N+1][k+1,k+N+1][k+1,k+N+1],重复上述学习过程。

**备注2:**请注意,RL算法的训练过程(18)和(21)只使用了部分模型信息G(x)G(x)G(x)。以一种稍微不同的方式,可以改变局部批评者根据双启发式规划[32]估计局部状态λi=∂Jˉi(xNi)/∂xNiλ_i=∂\bar{J}_i(x_{N_i})/∂x_{N_i}λi​=∂Jˉi​(xNi​​)/∂xNi​​的作用,它可以通过利用模型信息F(x)F(x)F(x)来加快收敛过程。

**备注3:**应该强调的是,基于分布式屏障函数的RL算法以完全分布式的方式训练和部署,即状态信息沟通在每个训练时间即时权重更新的评论家和在每个部署时间即时实现分布式控制。
现在文中将对计算复杂性问题进行了一些讨论。如果使用像[33]这样的快速局部MPC实现,则经典分布线性MPC的计算复杂度约为O(MN(nNi+mi)nNi2)O(MN(n_{N_i}+m_i)n^2_{N_i})O(MN(nNi​​+mi​)nNi​2​)。在训练过程中,文中的方法的主要计算复杂度是对(18)、(21)和前向模型预测的更新,这大致是线性系统的O(MN(nc,i+nu,i+nNi)nNi2)O(MN(n_{c,i}+n_{u,i}+n_{N_i})n^2_{N_i})O(MN(nc,i​+nu,i​+nNi​​)nNi​2​)。当直接部署学习到的控制策略时,即使对于非线性多机器人系统,整体在线计算复杂度也降低到O(M(nu,inNi))O(M(n_{u,i}n_{N_i}))O(M(nu,i​nNi​​))。总之,总体计算复杂度随着要去的代理的数量呈线性增长。
移动机器人的通信图如下,其中箭头表示移动机器人的信息传输方向,机器人0为领先机器人。

移动机器人编队控制的仿真与实验结果

A.模拟实验

   考虑M(M=8)M(M=8)M(M=8)移动机器人的编队控制。本地移动机器人之间的通信有向图如图1所示。第i个机器人的运动学模型为

式中(xi,yi)(x_i,y_i)(xi​,yi​)为笛卡尔坐标系中第i个机器人的坐标,θiθ_iθi​和viv_ivi​分别为偏航角和线速度,ui=[ai,ωi]Tu_i=[a_i,ω_i]^{\rm T}ui​=[ai​,ωi​]T为控制输入,其中aia_iai​和ωiω_iωi​分别为加速度和偏航率。
   让文中将第iii个机器人在局部坐标系中的形成误差定义为

其中,aij=0,1a_{ij}=0,1aij​=0,1表示连接状态,如果机器人iii从机器人jjj接收到状态信息,否则,aij=0a_{ij}=0aij​=0;rir_iri​表示钉扎增益,ri=1r_i=1ri​=1表示机器人我能接收到领导者的信息,H=diag{1,1,0,0}H={\rm diag}\{1,1,0,0\}H=diag{1,1,0,0}。∆hji∆h_{ji}∆hji​和∆hri∆h_{ri}∆hri​是坐标校正变量,由地层形状和大小决定;坐标变换矩阵为

   通过在变换(23)下离散(22),可以将离散时间局部形成误差模型写为


   在仿真过程中,控制目标是移动机器人可以沿四行两列矩形的直线,避免路径上的障碍(见图2),同一行与列中相邻移动机器人之间的期望距离分别为2m和1m。所有需要避免的障碍物均为直径为0.5m的圆形物体(另见图2)。两个障碍物的坐标分别为(0,2)和(25,0)。在提出的SL-DMPC中,将惩罚矩阵选为QnNi=InNiQ_{n_{N_i}}=I_{nN_i}QnNi​​​=InNi​​,Ri=I2R_i=I_2Ri​=I2​,预测范围设为N=20。在训练过程中,将参与者和批评者的权重矩阵设置为均匀分布的随机值,并根据(18)和(21)在每个时间时刻进行更新。模拟是在英特尔酷睿i7@2.30GHz的笔记本电脑上使用MATLAB进行的。
   下图的仿真结果表明,移动机器人可以从无序的初始状态条件下实现一个预定义的地层形状,同时避免了路径上遇到的所有障碍物,并在避碰后恢复了地层形状。从图2中可以观察到每个局部机器人的形成误差收敛于原点。

   在仿真测试中,对8个具有防撞功能的移动机器人进行编队控制,其中黑色圆形区域(直径0.5m)代表障碍物,彩色线代表移动机器人的运动轨迹,同时同一列中的移动机器人用相同的彩色点标记。

B.现实世界的实验

   文中还在两个真实的移动机器人上测试了文中提出的算法,用于防碰撞的地层控制(见下图)。在实验中,文中直接部署了离线学习到的局部策略来控制本地移动机器人。在每个采样时刻,机载卫星惯性制导集成定位系统测量每个本地状态qi,i=1,2q_i,i=1,2qi​,i=1,2。测量到的q1q_1q1​和相应的参考qrq_rqr​通过无线电从第一个机器人传输到第二个机器人。此外,将测量到的q2q_2q2​从第二个机器人传输到第一个机器人。每个机器人都配备了一台笔记本电脑,其中安装了Unbuntu操作系统。在每台笔记本电脑中,利用测量的状态信息实时计算控制输入。采样间隔设为∆t=0.1∆t=0.1∆t=0.1s。

   在实验中,文中在参考路径上添加了一个静态障碍。第一个机器人有望避开障碍物。为了简化实验设置,文中假设障碍物的位置信息是预先检测到的计算机视觉算法。在局部避碰条件下的实验结果如图3和图4所示,结果表明,移动机器人能够成功地避开障碍物1。同时,即使在避碰过程中,也保持了地层形状。请注意,在构建的软件中,测量状态和从无线电接收的状态之间存在明显的异步问题,这可能导致不可忽视的不确定性。即便如此,在这种情况下,文中的算法也显示出了很强的鲁棒性(参见下图)。

结论

   本文提出了一种基于屏障函数的安全强化学习方法,用于具有状态约束的非线性多机器人系统的分布式模型预测控制(即SL-DMPC)。与经典的DMPC算法不同,SL-DMPC的实现依赖于一个基于参与者-批评者框架的分布式安全强化学习算法,从而为每个代理产生一个局部显式的状态反馈控制策略,而不是一个开环控制序列。这些本地控制策略可以同步学习和在线部署,也可以离线学习和在线部署,从而显著减少了有关DMPC的计算负载。作为另一个突出的特征,文中提出了一种新的基于屏障的控制策略结构,以保证分布式强化学习算法的安全性。此外,还证明了基于障碍函数的安全强化学习算法在每个预测领域的学习安全性和收敛性。对防撞移动机器人编队控制的模拟和真实实验结果验证了该方法的有效性。

论文研读笔记(三)——基于障碍函数的移动机器人编队控制安全强化学习相关推荐

  1. 论文研读笔记_基于优化的SVM心音信号分类算法的研究

    论文研究_基于优化的SVM心音信号分类算法的研究 先存起来,持续更新 摘要 心音信号采集易混入杂音,影响判断: 经验式模态分解算法分析特征分布:心音信号集中于低频.噪音集中于高频: 利用切比雪夫滤波器 ...

  2. 《强化学习周刊》第33期:UdeM | 基于不确定性估计的样本高效深度强化学习

    No.33 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 关于周刊 强化学习作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注.为帮助研究与工程人员了解该领域的相关进展和 ...

  3. 论文研读笔记(二)——通过深度强化学习避免碰撞的编队控制

    通过深度强化学习避免碰撞的编队控制(Formation Control with Collision Avoidance through Deep Reinforcement Learning) 文献 ...

  4. 论文浅尝 | ​ADRL:一个基于注意力机制的知识图谱深度强化学习框架

    论文笔记整理:谭亦鸣,东南大学博士. 来源:Knowledge-Based Systems 197 (2020) 105910 链接:https://www.sciencedirect.com/sci ...

  5. 干货!基于非递减分位数网络的值分布强化学习及其高效探索方法

    点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 尽管值分布强化学习在过去几年中得到了广泛的研究,但仍然存在两方面未能解决问题:一是如何保证估计出来的分位数函数的有效性,二是如何有效地利 ...

  6. 【论文笔记】基于 VR 的移动机器人真实环境三维建模系统

    文章目录 摘要 关键词 1 引言 2 系统框架 2.1 点云地图与重定位 2.2 生成模型地图 Step 1: 去噪声和降采样 Step 2: 计算每个点的法线 Step 3: Possion 曲面重 ...

  7. 论文研读笔记(五)——通过单机器人进化策略搜索增强多机器人导航的深度强化学习方法

    通过单机器人进化策略搜索增强多机器人导航的深度强化学习方法(Enhancing Deep Reinforcement Learning Approaches for Multi-Robot Navig ...

  8. 论文研读笔记(二)——VGG

    论文研读系列汇总: 1.AlexNet论文研读 2.VGG论文研读 3.GoogLeNet论文研读 4.Faster RCNN论文研读 5.ResNet 论文研读 6.SENet 论文研读 7.CTP ...

  9. 论文研读笔记(一)——ALEXnet

    写这个博客的原因为目前使用比较多的网络结构主要有ResNet(152-1000层),GoogLeNet(22层),VGGNet(19层).大多数模型都是基于这几个模型上改进(比如目标检测里Faster ...

最新文章

  1. 【ACM】UVA - 340 Master-Mind Hints(一定要好好学英语...)
  2. java并发核心知识体系精讲_JAVA核心知识汇总
  3. linux企业常用命令必之必会二
  4. java io 文件复制_实例讲述Java IO文件复制
  5. Bresenham 生成直线
  6. Spring AOP进行日志记录,管理
  7. php扩展memcached和memcache的安装配置方法
  8. 10-5 4-6 查询在具有最小内存容量的所有PC中具有最快处理器的PC制造商 (10 分)
  9. 编写程序输入一个5x5的矩阵,将最大元素与中心元素交换,并按行列对齐输出。...
  10. 谷歌发布自然问答数据集 Natural Questions
  11. PMP估算方法对比:参数估算、类比估算、自下而上估算、三点估算和粗略量级估算
  12. 光环《全脑思维下的敏捷产品构建》总结
  13. 步骤教学 :安装下载Oracle VM VirtualBox + 安装win7 win10镜像文件
  14. 欧美html游戏,欧美HTML社区服务游戏
  15. Hive创建外部表详细步骤
  16. 2048Game/2048游戏(自制版)
  17. CDS软件语音测试,cds测试软件
  18. 一本通 1287:最低通行费 C++
  19. win7 上配置openGL开发环境(配套openGL 超级宝典Super Bible 6th)
  20. 【树莓派 有趣实践】寻找小项目

热门文章

  1. 智能优化算法:寄生-捕食算法-附代码
  2. 【Java】2.Java体系架构(SE的组成概念图)
  3. MindMapper16中文汉化版下载
  4. 大型传统企业的数字化创新之路
  5. Amazon亚马逊开发者账号申请
  6. 对接淘宝天猫平台的第一篇
  7. 未来的计算机辅助教学是什么样的,计算机辅助教学cat是什么软件
  8. 谭玉刚从零开始之超硬核制造操作系统
  9. Java多线程模拟运动比赛
  10. 如何使用Apple Watch解锁iPhone和Mac?