对于一类具有随机变迭代长度的问题,如功能性电刺激,用户可以提前结束实验过程,论文也是将离散矩阵延迟指数函数引入到状态方程中。
论文中关于迭代长度有三个定义值:ZTaZ^TaZTa 为最小的实验长度,ZTdZ^TdZTd 为期望实验长度,ZTkZ^TkZTk 为k次迭代的实验长度。

柯西状态方程如下:

x(t+1)=Ax(t)+A1x(t−σ)+f(t),t∈Z0∞x(t)=φ(t),t∈Z−σ0\begin{aligned} x(t+1) &=A x(t)+A_{1} x(t-\sigma)+f(t), \quad t \in \mathbb{Z}_{0}^{\infty} \\ x(t) &=\varphi(t), \quad t \in \mathbb{Z}_{-\sigma}^{0} \end{aligned} x(t+1)x(t)​=Ax(t)+A1​x(t−σ)+f(t),t∈Z0∞​=φ(t),t∈Z−σ0​​
引入离散矩阵延迟指数函数,状态x(k)的解为:
x(t)=AteσB1tA−σφ(−σ)+∑j=−σ+10A(t−j)eσB1(t−σ−j)[φ(j)−Aφ(j−1)]+∑j=1tA(t−j)eσB1(t−σ−j)f(j−1)\begin{aligned} x(t)=& A^{t} e_{\sigma}^{B_{1} t} A^{-\sigma} \varphi(-\sigma)+\sum_{j=-\sigma+1}^{0} A^{(t-j)} e_{\sigma}^{B_{1}(t-\sigma-j)}[\varphi(j)-A \varphi(j-1)] \\ &+\sum_{j=1}^{t} A^{(t-j)} e_{\sigma}^{B_{1}(t-\sigma-j)} f(j-1) \end{aligned} x(t)=​AteσB1​t​A−σφ(−σ)+j=−σ+1∑0​A(t−j)eσB1​(t−σ−j)​[φ(j)−Aφ(j−1)]+j=1∑t​A(t−j)eσB1​(t−σ−j)​f(j−1)​

随机变迭代实验长度内容部分:

存在两种情况:1. Tk>TdT_k>T_dTk​>Td​,2. Ta<Tk<TdT_a<T_k<T_dTa​<Tk​<Td​ 。对于第一种情况,只用Td以内的数据用来更新输入信号,对于第二情况只用TkTkTk之内的数据进行更新。
η_k (t)为伯努利分布,其中值1表示以p(t)的概率运行到t时刻,值0表示以1-p(t)的概率不能运行到时刻t。对于Ta到Td这段时间的概率计算公式如下:
p(t)={1,t∈Z0Ta∑i=tTdpi,t∈ZTa+1Td.p(t)=\left\{\begin{array}{ll} 1, & t \in \mathbb{Z}_{0}^{T_{a}} \\ \sum_{i=t}^{T_{d}} p_{i}, & t \in \mathbb{Z}_{T_{a+1}}^{T_{d}} . \end{array}\right. p(t)={1,∑i=tTd​​pi​,​t∈Z0Ta​​t∈ZTa+1​Td​​.​
举一个例子通俗地讲一下,上面地内容主要是用在算法收敛性证明的。前6次迭代实验的长度如下图所示,1为上面伯努利分布的1事件,0同理。

把Ta=6作为最小的运行时刻,期望运行时刻为Td=10,第一次迭代的终止时刻为6,把这个事件称之为M6,第六次迭代时,到T=11结束,即运行时刻大于Td,把这种情况同样视为M10。在上面的这张表中,运行到[7,10]的概率如下所示:其中pi为事件Mi发生的概率。那么系统能运行到时刻8的概率p(8)等于大于时刻8事件的概率3/5。
p(t)的概率表达式为:
p(t)=P[⋃i=t10Mi]=∑i=t10P[Mi]=∑i=t10pip(t)=\mathbf{P}\left[\bigcup_{i=t}^{10} \mathbf{M}_{i}\right]=\sum_{i=t}^{10} \mathbf{P}\left[\mathbf{M}_{i}\right]=\sum_{i=t}^{10} p_{i} p(t)=P[i=t⋃10​Mi​]=i=t∑10​P[Mi​]=i=t∑10​pi​

关于误差的定义

由于存在实际实验长度小于期望长度,所以这部分的误差当作0来计算:
e~k(t):=ηk(t)ek(t)={ek(t),t∈Z0Tk0,t∈ZTk+1Td\tilde{e}_{k}(t):=\eta_{k}(t) e_{k}(t)=\left\{\begin{array}{ll} e_{k}(t), & t \in \mathbb{Z}_{0}^{T_{k}} \\ 0, & t \in \mathbb{Z}_{T_{k+1}}^{T_{d}} \end{array}\right. e~k​(t):=ηk​(t)ek​(t)={ek​(t),0,​t∈Z0Tk​​t∈ZTk+1​Td​​​

两种学习控制律

uk+1(t)=uk(t)+L1e~k(t),t∈Z0Tdu_{k+1}(t)=u_{k}(t)+L_{1} \tilde{e}_{k}(t), \quad t \in \mathbb{Z}_{0}^{T_{d}} uk+1​(t)=uk​(t)+L1​e~k​(t),t∈Z0Td​​
uk+1(t)=uk(t)+L2e~k(t+1),t∈Z0Tdu_{k+1}(t)=u_{k}(t)+L_{2} \tilde{e}_{k}(t+1), \quad t \in \mathbb{Z}_{0}^{T_{d}} uk+1​(t)=uk​(t)+L2​e~k​(t+1),t∈Z0Td​​
对于(9)式要把期望时间间隔设置为0到Td+1。算法的收敛性略(其实是我不会)。
代码见GITHUB

Iterative learning control for linear discrete delay systems via discrete matrix delayed exponential相关推荐

  1. Learning and Meta-Learning of Stochastic Advection-Diffusion-Reaction Systems from Sparse Measuremen

    论文信息 题目:Learning and Meta-Learning of Stochastic Advection-Diffusion-Reaction Systems from Sparse Me ...

  2. 分布式事务2PC论文翻译(Concurrency Control and Recovery in Database Systems )

    作者:Philip A. Bernstein, Vassos Hadzilacos, Nathan Goodman. 1987 原文:Concurrency Control and Recovery ...

  3. 【李宏毅2020 ML/DL】补充:Structured Learning: Introduction Structured Linear Model

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的.自己不知道的东西. 本次笔记补充视频 BV1JE411g7XF 的缺失部分.在另一个UP主上传的2017课程BV13x411v7U ...

  4. A Comparative Analysis of Deep Learning Approaches for Network Intrusion Detection Systems (N-IDSs)

    论文阅读记录 数据类型 在预定义时间窗口中,按照传输控制协议/互联网协议(TCP/IP)数据包将网络流量数据建模成时间序列数据. 数据:KDDCup-99/ NSL-KDD/ UNSW-NB15 NI ...

  5. 【论文笔记】Deep Reinforcement Learning Control of Hand-Eye Coordination with a Software Retina

    目录 Abstract Keywords 1. INTRODUCTION 2. BACKGROUND A. Software Retina B. Deep Reinforcement Learning ...

  6. Machine Learning experiment2 Multivariate Linear Regression 详解+源代码实现

    数据预处理: 根据题目,我们得知,该数据为房价关于住房面积,卧室数量的相关数据,共47组数据,我们可以观测到住房面积接近等于卧室数量的1000倍左右,所以我们需要对数据进行标准化. 首先,我们作图如下 ...

  7. 《The Elements of Statistical Learning》 chp3 Linear Models for Regression

    3.1    线性回归模型假定 回归函数E(Y|X)与输入X1,...,Xp是线性关系. ## 可以扩展到与 输入的变换 是线性关系,这种扩展叫做 basis-function methods(基函数 ...

  8. 南昌大学计算机学院梁教授,教授

    [Academic And Professional Qualification and Awards] 2002-present, Professor, School of Communicatio ...

  9. 18 Issues in Current Deep Reinforcement Learning from ZhiHu

    深度强化学习的18个关键问题 from: https://zhuanlan.zhihu.com/p/32153603 85 人赞了该文章 深度强化学习的问题在哪里?未来怎么走?哪些方面可以突破? 这两 ...

最新文章

  1. 您遵循过这些Jenkins优秀实践吗?
  2. python pypcap 安装失败_解决Windows 10下python安装pypcap失败的问题
  3. 【c语言】计算三角形面面积
  4. 明白了最基本的压缩原理
  5. flex 客户端缓存SharedObject
  6. java communal_平台用英语怎么说
  7. Windows 10《描图》应用现已开源
  8. gulp学习笔记,基本使用流程,基本函数,使用监听、插件
  9. android注册广播两种方式,Android 注册广播的两种方式对比
  10. matplotlib 设置标注方向_Matplotlib绘制带主题及聚类类标的散点图
  11. .net常用面试核心技术点(持续更新中)
  12. MFC双缓冲解决图象闪烁
  13. vi/vim编辑器使用方法详解
  14. 关于matlab匿名函数,求导
  15. 【编程语言】PHP完全自学手册
  16. android模拟器脚本,安卓模拟器脚本制作工具
  17. XCTF-2020CyBRICS部分逆向
  18. 二元二次方程例题_二元二次方程组-解法-例题
  19. 计算机桌面底边出现库如何去掉,桌面图标有蓝底怎么去掉
  20. 电脑端微信文件的存储位置在哪?

热门文章

  1. Python中利用numpy将数组(矩阵)存成csv文件,将csv文件读取为数组(矩阵)
  2. 剑指offer——面试题17:合并两个排序的链表
  3. 自旋锁--Test and Set Clock机制分析
  4. Latex中插入超链接/网址
  5. 一些基本的数学概念,LDA的表述
  6. 对 BatchNormalization 中 Internal Convariate Shift 的理解
  7. vuex 在typescript中的写法
  8. python-3高级特征
  9. 【转载】C++ function、bind和lambda表达式
  10. Nginx+Tomcat负载均衡群集