5. 连续时间马氏过程-强Markov族

上回主要介绍了有关马氏过程的两个部分内容,即

  • 连续时间的马氏过程的定义及其等价命题;
  • 构造从一个单点出发的Markov过程的两种方法,即「活动概率空间」和「Markov族」

1. 扩展Markov性


Ft+:=∪u>tFu\mathscr{F}_{t+}:=\cup_{u>t} \mathscr{F}_{u} Ft+​:=∪u>t​Fu​定理5.4.1. (ξ(t,x),Ft+)\left(\xi(t, x), \mathscr{F}_{t+}\right)(ξ(t,x),Ft+​) 是 Markovit程.
由于这个狜果, 我们可以在此郑重申明: 班后在碰到Markov过程时, 自动认
或问了: 既然如此, 为什么在Markov性的定义中不直接嫮求 (Ft)\left(\mathscr{F}_{\mathrm{t}}\right)(Ft​) 右连续昍?
一定要这样㕷也是可以的, 但如果真这样敳了的话, 往往使事祷变得更复杂, 因 为除非极其特别的情识, 原始的 σ−\sigma-σ− 代数流 (比如一个过程自己生成的 σ−\sigma-σ− 代数流)并不 是自动右连续的, 䣕怕这个过程的轨道是右连续的, 基至是连续的一一我们看到 过, Brown迄动的情况蚘是如此. 而在定义中要求少一些, 现在又在了一个放之四 海而皆淮的定理, 늘不是可以省很名事时?

证明. 我们要证明对任意 A∈FtA \in \mathscr{F}_{t}A∈Ft​, 任意 s>0s>0s>0, 任意有界 B−\mathscr{B}-B− 可测 fff,
E[1Af(ξ(s+t,x))]=E[∫Ef(y)P(s,ξ(t,x),dy)1A].E\left[1_{A} f(\xi(s+t, x))\right]=E\left[\int_{E} f(y) P(s, \xi(t, x), d y) 1_{A}\right] . E[1A​f(ξ(s+t,x))]=E[∫E​f(y)P(s,ξ(t,x),dy)1A​].
任给 ε>0\varepsilon>0ε>0, 因为 A∈Ft+cA \in \mathscr{F}_{t+c}A∈Ft+c​, 所以由Markov性
E[1Af(ξ(s+t+ε,x))]=E[∫Ef(y)P(s,ξ(t+ε,x),dy)1A]E\left[1_{A} f(\xi(s+t+\varepsilon, x))\right]=E\left[\int_{E} f(y) P(s, \xi(t+\varepsilon, x), d y) 1_{A}\right] E[1A​f(ξ(s+t+ε,x))]=E[∫E​f(y)P(s,ξ(t+ε,x),dy)1A​]
E[1Af(ξ(s+t,x))]=E[∫Ef(y)P(s,ξ(t,x),dy)1A]E\left[1_{A} f(\xi(s+t, x))\right]=E\left[\int_{E} f(y) P(s, \xi(t, x), d y) 1_{A}\right] E[1A​f(ξ(s+t,x))]=E[∫E​f(y)P(s,ξ(t,x),dy)1A​]
对 B∈EB \in EB∈E, 令
μ(B)=E[1A1B(ξ(s+t,x))]μ′(B)=E[∫E1B(y)P(s,ξ(t,x),dy)1A]\begin{gathered} \mu(B)=E\left[1_{A} 1_{B}(\xi(s+t, x))\right] \\ \mu^{\prime}(B)=E\left[\int_{E} 1_{B}(y) P(s, \xi(t, x), d y) 1_{A}\right] \end{gathered} μ(B)=E[1A​1B​(ξ(s+t,x))]μ′(B)=E[∫E​1B​(y)P(s,ξ(t,x),dy)1A​]​
则 (4.7) 说明, 对任意有界连续函数 fff,
∫Efdμ=∫Efdμ′.\int_{E} f d \mu=\int_{E} f d \mu^{\prime} . ∫E​fdμ=∫E​fdμ′.
所以 μ=μ′\mu=\mu^{\prime}μ=μ′. 于是由下面的引理, (4.7)(4.7)(4.7) 对一般的有界可则函数 fff 成立.

引理5.4.2. 设 μ\muμ 与 μ′\mu^{\prime}μ′ 是 KaTeX parse error: Undefined control sequence: \cjkstart at position 48: … . ~ 若 対 任 堂 有 \̲c̲j̲k̲s̲t̲a̲r̲t̲ ̲⿱}
∫Ef(x)μ(dx)=∫Ef(x)μ′(dx),\int_{E} f(x) \mu(d x)=\int_{E} f(x) \mu^{\prime}(d x), ∫E​f(x)μ(dx)=∫E​f(x)μ′(dx),
则 μ≡μ′\mu \equiv \mu^{\prime}μ≡μ′.推论5.4.3. (Blumenthal 0−10-10−1 律) 设 A∈F0+X2,F0A \in \mathscr{F}_{0+}^{X_{2}}, \mathscr{F}_{0}A∈F0+X2​​,F0​ 为平凡 σ\sigmaσ - 代啈. 则
P(A)=0戎 1.P(A)=0 \text { 戎 } 1 . P(A)=0 戎 1.
证明. 因为
1A=E[1A∣F0+]=E[1A∣F0]=E[1A]=P(A)1_{A}=E\left[1_{A} \mid \mathscr{F}_{0+}\right]=E\left[1_{A} \mid \mathscr{F}_{0}\right]=E\left[1_{A}\right]=P(A) 1A​=E[1A​∣F0+​]=E[1A​∣F0​]=E[1A​]=P(A)
所以 P(A)=0P(A)=0P(A)=0 或 1.1 .1.
这个推论的好玩之处在于, 由它可以推出诸如
{lim sup⁡t<0ξ(t)−xf(t)>a}\left\{\limsup _{t<0} \frac{\xi(t)-x}{f(t)}>a\right\} {t<0limsup​f(t)ξ(t)−x​>a}
之类的事件发生的概率非零即一, 其中 fff 为适应过程. 由于这个事件不属于 F0\mathscr{F}_{0}F0​, 因 此谅你不敢吹牛说这是显然的.

2. 强Markov族

璜测, 基于到现在为止所有信息的判断(即在 Fs\mathscr{F}_{s}Fs​ 下的条件期望), 与只

这里 “现在” 是某个确定的时刻, 对每条轨道都是一样的. 但在很多问题中不 同的轨道却有不同的 “现在”, 例如如果将轨道到达某一点或某一集合的时间视为 “现在” 的话 (在推导Brown运动的极大值的分布的时候就是如此, 一旦过了这个 “现在”, 就需要对轨道进行翻转即作镜面反射), 那这个 “现在” 当然会依赖于轨 道, 即是随机的. 那么, 现在问: 对随机的 “现在”, 还有Markov性吗?
本节就是要证明对于我们所讨论的连续过程, 如果这个 “现在” 是停时的话, 那么Markov性依然保持. 这就是所谓的强Markov性. 实际上, 沿用上节的记号, 我们可以证明:
定理5.4.4. 设 fff 是有界可测函数, τ\tauτ 为停时, η∈Fτ\eta \in \mathscr{F}_{\tau}η∈Fτ​ 为非负随机变量. 则
E[f(ξ(τ+η),x)1τ+η<∞∣Fτ]={1τ+η<∞E[f(ξ(s,y))]}s=η,y=ξ(τ,x).E\left[f(\xi(\tau+\eta), x) 1_{\tau+\eta<\infty} \mid \mathscr{F}_{\tau}\right]=\left\{1_{\tau+\eta<\infty} E[f(\xi(s, y))]\right\}_{s=\eta, y=\xi(\tau, x)} . E[f(ξ(τ+η),x)1τ+η<∞​∣Fτ​]={1τ+η<∞​E[f(ξ(s,y))]}s=η,y=ξ(τ,x)​.
特别地, 若 τ+η<∞\tau+\eta<\inftyτ+η<∞ a.s., 则
E[f(ξ(τ+η),x)∣Fτ]=E[f(ξ(s,y))]∣s=η,y=ξ(τ,x).E\left[f(\xi(\tau+\eta), x) \mid \mathscr{F}_{\tau}\right]=\left.E[f(\xi(s, y))]\right|_{s=\eta, y=\xi(\tau, x)} . E[f(ξ(τ+η),x)∣Fτ​]=E[f(ξ(s,y))]∣s=η,y=ξ(τ,x)​.基于现在的 信息(即在 ξ(s,x)\xi(s, x)ξ(s,x) 下的条件期望)是一致的. 也䛨是说, 知道了现在, 过去和将来是 独立的.

5. 连续时间马氏过程-强Markov族相关推荐

  1. 【随机过程】18 - 连续时间马氏链与排队论

    连续时间马尔科夫链与排队论 文章目录 连续时间马尔科夫链与排队论 1. 连续时间马氏链 1.1 概述 1.2 停留时间的分布 1.3 跳变概率 1.3.1 连续时间马氏链CK方程 1.3.2 Q矩阵 ...

  2. 马尔可夫决策过程 Markov decision process MDP, 连续时间Markov chain, CMDP(全)

    引言 在概率论及统计学中,马尔可夫过程(英语:Markov process)是一个具备了马尔可夫性质的随机过程,因为俄国数学家安德雷·马尔可夫得名.马尔可夫过程是不具备记忆特质的(memoryless ...

  3. 【随机过程】14 - 离散时间马氏链与转移概率

    离散时间马尔科夫链与转移概率 文章目录 离散时间马尔科夫链与转移概率 1. 马尔科夫性的引入 2. 马尔科夫性与马尔科夫链 2.1 定义 2.2 马尔科夫性的解读 2.3 马尔科夫性的扩展 2.3.1 ...

  4. 连续时间的马尔可夫链

    定义1:设随机过程 { X ( t ) , t ≥ 0 } \{X(t),t\ge 0\} {X(t),t≥0},状态空间 I = { i 0 , n ≥ 0 } I=\{i_0,n\ge 0\} I ...

  5. 7.4 布朗运动-马氏性和强马氏性

    马氏性和强马氏性 1. 布朗运动的马氏性 1.1 扩展马氏性 1.2 Blumenthal's 0-1律 2 布朗路径的局部行为 2.1 局部行为 2.2 渐进行为和常返 3. 布朗运动的强马氏性 3 ...

  6. 利用dft对连续信号进行频谱分析_利用DFT对连续时间信号进行近似频谱分析过程中,减小栅栏效应的常用方法是_______;通过_______的方法可以提高频率分辨率。()...

    利用DFT对连续时间信号进行近似频谱分析过程中,减小栅栏效应的常用方法是_______;通过_______的方法可以提高频率分辨率.() 答:减小采样间隔:提高采样点数 川乌既祛风湿,又能: 答:散寒 ...

  7. 数学建模(六) 主成分分析,聚类分析,对策论,马氏链

    全并到一起写是因为我只想写十篇. 1.主成分分析 PCA!!! 主成分分析(Principal Component Analysis, PCA),将多个变量通过线性变换以选出较少个数重要变量的一种多元 ...

  8. 【数学建模】马氏链模型(基本概念+正则链+吸收链)

    马氏链模型(Markov Chain) 对于有随机因素影响的动态系统,系统从这个时期到下个时期的状态按照一定的概率进行转移,并且下个时期的状态只取决于这个时期的状态和转移概率. 无后效性:已知现在,将 ...

  9. python手势识别隐马尔可夫模型_手势识别身份认证的连续隐马尔可夫模型

    2018 收稿日期 :2017 - 03 - 18 收修改稿日期 :2017 - 04 - 25 基金项目 : 国家自然科学基金项目 (61373126) 资助 ; 中央高校基本科研业务费专项基金 项 ...

最新文章

  1. javascript 温故而知新 getBoundingClientRect
  2. click() bind() live() delegate()区别
  3. centso7.5 安装minconda3和创建项目所需python3环境
  4. php 虚拟主机ip配置文件,基于IP的虚拟主机配置
  5. atom对比 vscode_几款前端IDE工具:Sublime、Atom、VSCode比较
  6. JavaScript运算符运算优先级
  7. 什么是需求跟踪矩阵RTM
  8. 考研倒计时软件 终结版
  9. 鉴权html5服务器,搭建web之 服务器鉴权失败,请确认服务器已启用密码鉴权并且账号密码正确?...
  10. office 论文 页码_原创:如何设置毕业论文的页眉和页码(word2007和word2010)
  11. Maxcompute Sql性能调优(1)
  12. linux虚拟机 dnw,在Linux下安装DNW
  13. 购买服务器及宝塔部署环境指南
  14. ABAQUS将背景色改为白色
  15. Proguard的介绍
  16. JNLP : Java Glossary
  17. 如何调用百度卫星地图
  18. [Swift]Set(集)转换为Array(数组)
  19. BAPI_PO_CREATE1 净价net_price 无效
  20. postgre下备份还原

热门文章

  1. handlerinterceptoradapter 获取请求参数_SSM框架防止重复请求
  2. PAT Basic 1032
  3. JMS Java消息服务(Java Message Service)
  4. hadoop 集群配置
  5. 今天是星期四,不知道是不是由于太想家了,每天晚上做梦遇到家人
  6. Codeforces#363 Div2
  7. SaltStack之salt-key管理
  8. STL,ATL,WTL之间的联系和区别
  9. 基于Mahout的电影推荐系统
  10. UA MATH523A 实分析3 积分理论16 截口与单调类、特征函数的Fubini定理