离散时间马尔科夫链与转移概率

文章目录

  • 离散时间马尔科夫链与转移概率
    • 1. 马尔科夫性的引入
    • 2. 马尔科夫性与马尔科夫链
      • 2.1 定义
      • 2.2 马尔科夫性的解读
      • 2.3 马尔科夫性的扩展
        • 2.3.1 模糊未来
        • 2.3.2 模糊过去
        • 2.3.3 模糊当前
    • 3. 转移概率
      • 3.1 转移概率引入
      • 3.2 转移概率的推广与简化
        • 3.2.1 推广
        • 3.2.2 平稳转移概率--四维简化到三维
        • 3.2.3 Chapman-Kolmogorov方程--三维简化到二维
          • (1) 概述
          • (2) CK方程直观表示
          • (3) CK方程证明
          • (4) CK方程与转移概率的简化
        • 3.2.4 小结
    • 4. 基于马尔科夫性计算概率的例子
      • 4.1 基本做法
      • 4.2 基于马尔科夫性的解法
    • 5. 马尔科夫链稳态分析前置知识
      • 5.1 概述
      • 5.2 相关概念
        • 5.2.1 可达
        • 5.2.2 相通
        • 5.2.3 闭集
        • 5.2.4 约化
        • 5.2.5 不可约
      • 5.3 不可约与转移概率矩阵
      • 5.4 首达与CK方程
        • 5.4.1 转移概率的时间分解
        • 5.4.2 转移概率的时间分解与空间分解比较
        • 5.4.3 转移概率的时间分解证明

1. 马尔科夫性的引入

  随机过程中,最重要的就是研究两个随机变量之间的关系。比如相关,就是研究两个随机变量之间的亲疏远近关系。而相关系数表征了两个随机变量之间的角度。对于高斯过程,我们通过联合高斯分布,把若干个随机变量联系在一起。而泊松过程各个点之间的联系体现在事件发生的间隔是指数分布。

  如果我们想描绘n个随机变量之间的联系,最好的方法是使用联合分布。

Joint Distribution P ( Z 1 , . . . , Z n ) \text{Joint Distribution}\\ P(Z_1,...,Z_n) Joint DistributionP(Z1​,...,Zn​)

  但是联合分布求起来非常的麻烦,我们可以尝试使用条件概率的方法来进行计算

P ( Z 1 , . . . , Z n ) = P ( Z n ∣ Z n − 1 , . . . , Z 1 ) P ( Z n − 1 , . . . , Z 1 ) = P ( Z n ∣ Z n − 1 , . . . , Z 1 ) P ( Z n − 1 ∣ Z n − 2 , . . . , Z 1 ) P ( Z n − 2 , . . . , Z 1 ) = ∏ k = 1 n P ( Z k ∣ Z k − 1 , . . . , Z 1 ) P(Z_1,...,Z_n) = P(Z_n|Z_{n-1},...,Z_1) P(Z_{n-1},...,Z_1) \\ = P(Z_n|Z_{n-1},...,Z_1) P(Z_{n-1}|Z_{n-2},...,Z_1)P(Z_{n-2},...,Z_1) \\ = \prod _{k=1}^n P(Z_k|Z_{k-1},...,Z_1) P(Z1​,...,Zn​)=P(Zn​∣Zn−1​,...,Z1​)P(Zn−1​,...,Z1​)=P(Zn​∣Zn−1​,...,Z1​)P(Zn−1​∣Zn−2​,...,Z1​)P(Zn−2​,...,Z1​)=k=1∏n​P(Zk​∣Zk−1​,...,Z1​)

  事实上,这样做问题并没有得到简化。虽然增加了条件,随机因素减少了,但是约束条件变多了,实际上问题难度并没有得到降低。

  比如两点之间直线最短,如果现在增加一个约束,在球面上走,就需要找一个大圆,不能直接穿过去。继续增加约束,在椭球体上找两点间最短距离,用椭圆积分做。如果是随便给一个曲面,就要找测地线了。目前这还是个没有完全解决的问题。因此,一旦约束变强了,一点都没有解决问题

  用等号的式子不叫简化,叫化简。如果要做简化,一定要做假设。

Assumption \text{Assumption} Assumption

  好的假设需要满足下面三个条件

  • 实现起来容易:比如假定某一个方程成立,可能这个方程都没有办法解
  • 存在的空间巨大:能满足条件的变量如果没有,变成了空集
  • 应用及其广泛:实际环境中,满足这个假设的情况很多

  我们在此做一个假设,如果角标是时间的话,表示只有离当前最近的那个随机变量能够产生影响,其他就都可以忽略了。这个假设是马尔科夫做的,因此叫做马尔科夫性

Markov Property P ( Z n ∣ Z n − 1 , . . . , Z 1 ) = P ( Z n ∣ Z n − 1 ) \text{Markov Property}\\ P(Z_n | Z_{n-1},...,Z_1) = P(Z_n | Z_{n-1}) Markov PropertyP(Zn​∣Zn−1​,...,Z1​)=P(Zn​∣Zn−1​)

  马尔科夫的这个假设就满足好的假设的三个条件。马尔科夫性实现起来非常容易,很多随机过程都满足马尔科夫性,应用及其广泛,因此这是个好的假设

  随机过程按照时间的连续性和状态的连续性可以分为四种

  • 离散时间离散状态的随机过程:离散时间马尔科夫链(DT Markov Chain)
  • 离散时间连续状态的随机过程:连续时间马尔科夫链(CT Markov Chain)
  • 连续时间离散状态的随机过程:泊松过程(Poisson)
  • 连续时间连续状态的随机过程:高斯过程(Gaussian)

2. 马尔科夫性与马尔科夫链

2.1 定义

Markov Chains \text{Markov Chains} Markov Chains

  假设我们有一个离散的随机过程

Z { n } Z k ∈ { x 1 , . . , x n , . . . } Z\{_n \} \\ Z_k \in \{x_1,..,x_n,... \} Z{n​}Zk​∈{x1​,..,xn​,...}
  我们任取n个随机变量,都有如下式子成立,这就是马尔科夫性

P ( Z n ∣ Z n − 1 , . . . , Z 1 ) = P ( Z n ∣ Z n − 1 ) P(Z_n | Z_{n-1},...,Z_1) = P(Z_n|Z_{n-1}) P(Zn​∣Zn−1​,...,Z1​)=P(Zn​∣Zn−1​)

  而叫做链是因为,我们把随机过程的状态表征为一个一个的点,状态随着时间进行变换,对不同时间随机过程的状态进行采样,可以得到一个样本轨道。这种形象的表示就是链

2.2 马尔科夫性的解读

  我们假设三个符号,A表示过去,B表示现在,C表示将来

A : P a s t B : N o w C : F u t u r e A: Past \quad B: Now \quad C: Future A:PastB:NowC:Future

  • 解读1:假设我们已知当下和过去,如果我们想去预测未来,只有当下对预测未来是有用的,过去可以忘记了

P ( C ∣ B A ) = P ( C ∣ B ) ( 1 ) P(C|BA) = P(C|B) \quad (1) P(C∣BA)=P(C∣B)(1)

  • 解读2(等价解读):如果当下是已知的,过去和未来是独立的,当下是连接过去和将来的纽带

P ( C A ∣ B ) = P ( C ∣ B ) P ( A ∣ B ) ( 2 ) P(CA|B ) = P(C|B)P(A|B) \quad (2) P(CA∣B)=P(C∣B)P(A∣B)(2)

  我们验证一下这个式子,首先下面的全概率公式成立

P ( C A ) = P ( C ∣ A ) P ( A ) P(CA) = P(C|A)P(A) P(CA)=P(C∣A)P(A)

  加入条件概率之后仍然成立

⇒ P ( C A ∣ B ) = P ( C ∣ B A ) P ( A ∣ B ) = P ( C ∣ B ) P ( A ∣ B ) \Rightarrow P(CA|B) = P(C|BA)P(A|B) = P(C|B)P(A|B) ⇒P(CA∣B)=P(C∣BA)P(A∣B)=P(C∣B)P(A∣B)

  证明了(1)->(2),再证明(2)->(1)

  对于条件概率有这样的式子成立

P ( C ∣ A ) = P ( C A ) P ( A ) P(C|A) = \frac{P(CA)}{P(A)} P(C∣A)=P(A)P(CA)​

⇒ P ( C ∣ B A ) = P ( C A ∣ B ) P ( A ∣ B ) = P ( C ∣ B ) P ( A ∣ B ) P ( A ∣ B ) = P ( C ∣ B ) \Rightarrow P(C|BA) = \frac{P(CA|B)}{P(A|B)} =\frac{P(C|B)P(A|B)}{P(A|B)} = P(C|B) ⇒P(C∣BA)=P(A∣B)P(CA∣B)​=P(A∣B)P(C∣B)P(A∣B)​=P(C∣B)

2.3 马尔科夫性的扩展

P ( Z n ∣ Z n − 1 , . . . , Z 1 ) = P ( Z n ∣ Z n − 1 ) ( a ) P(Z_n | Z_{n-1},...,Z_1) = P(Z_n|Z_{n-1}) \quad\quad (a) P(Zn​∣Zn−1​,...,Z1​)=P(Zn​∣Zn−1​)(a)

2.3.1 模糊未来

  如果现在,对未来的条件进行模糊,马尔科夫性是否还是成立的?

P ( Z n ∈ A ∣ Z n − 1 = X n − 1 , . . , Z 1 = X 1 ) = P ( Z n ∈ A ∣ Z n − 1 = X n − 1 ) ( b ) P(Z_n \in A|Z_{n-1} = X_{n-1},..,Z_1 = X_1) = P(Z_n \in A | Z_{n-1} = X_{n-1}) \quad\quad (b) P(Zn​∈A∣Zn−1​=Xn−1​,..,Z1​=X1​)=P(Zn​∈A∣Zn−1​=Xn−1​)(b)

  证明一下

Let  a k ∈ A P ( Z n ∈ A ∣ Z n − 1 = X n − 1 , . . , Z 1 = X 1 ) = ∑ k P ( Z n = a k ∣ Z n − 1 = X n − 1 , . . , Z 1 = X 1 ) = ∑ k P ( Z n = a k ∣ Z n − 1 = X n − 1 ) = P ( Z n ∈ A ∣ Z n − 1 = X n − 1 ) \text{Let } a_k \in A \\ P(Z_n \in A|Z_{n-1} = X_{n-1},..,Z_1 = X_1) = \\ \sum_{k} P(Z_n = a_k|Z_{n-1} = X_{n-1},..,Z_1 = X_1) \\ = \sum_{k} P(Z_n = a_k|Z_{n-1} = X_{n-1}) = P(Z_n \in A | Z_{n-1} = X_{n-1}) Let ak​∈AP(Zn​∈A∣Zn−1​=Xn−1​,..,Z1​=X1​)=k∑​P(Zn​=ak​∣Zn−1​=Xn−1​,..,Z1​=X1​)=k∑​P(Zn​=ak​∣Zn−1​=Xn−1​)=P(Zn​∈A∣Zn−1​=Xn−1​)

  因为未来本来就是不知道的,多了一些模糊性,不影响马尔科夫性质。

2.3.2 模糊过去

  未来是可以模糊的,那么过去是可以模糊的吗?

P ( Z n = X n ∣ Z n − 1 = X n , Z n − 2 ∈ A ) = P ( Z n = X n ∣ Z n − 1 = X n − 1 ) ( c ) P(Z_n = X_n | Z_{n-1}= X_n,Z_{n-2} \in A) = P(Z_n = X_n | Z_{n-1} = X_{n-1}) \quad\quad (c) P(Zn​=Xn​∣Zn−1​=Xn​,Zn−2​∈A)=P(Zn​=Xn​∣Zn−1​=Xn−1​)(c)

  从直观上感受是可以的,因为过去本来就是要被丢弃的,模糊一下不应该结果。证明的时候需要注意一下,因为条件号后面的东西是不可以加和的

  我们来证明一下,首先根据全概率公式,我们可以做这样的展开

P ( A C ) = P ( A ∣ C ) P ( C ) P ( Z n = X n , ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n − 1 ) = P ( Z n = X n ∣ Z n − 1 = X n − 1 , ( Z n − 2 , . . . , Z 0 ) ∈ A ) P ( ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n − 1 ) { 1 } P(AC) = P(A|C)P(C) \\ P(Z_n = X_n,(Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_{n-1}) \\ = P(Z_n = X_n|Z_{n-1}=X_{n-1},(Z_{n-2},...,Z_0)\in A)P((Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_{n-1}) \quad\quad \{1\} P(AC)=P(A∣C)P(C)P(Zn​=Xn​,(Zn−2​,...,Z0​)∈A∣Zn−1​=Xn−1​)=P(Zn​=Xn​∣Zn−1​=Xn−1​,(Zn−2​,...,Z0​)∈A)P((Zn−2​,...,Z0​)∈A∣Zn−1​=Xn−1​){1}

  这个式子也可以变成累加和的形式

P ( Z n = X n , ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n ) = ∑ ( Z n − 2 , . . . , Z 0 ) ∈ A P ( Z n = X n , Z n − 2 , . . . , Z 0 ) ∣ Z n − 1 = X n − 1 ) P(Z_n = X_n,(Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_n) \\ = \sum_{(Z_{n-2},...,Z_0)\in A} P(Z_n = X_n,Z_{n-2},...,Z_0)|Z_{n-1}=X_{n-1}) P(Zn​=Xn​,(Zn−2​,...,Z0​)∈A∣Zn−1​=Xn​)=(Zn−2​,...,Z0​)∈A∑​P(Zn​=Xn​,Zn−2​,...,Z0​)∣Zn−1​=Xn−1​)

  然后利用马尔科夫性可以做这样的展开

P ( A C ∣ B ) = P ( A ∣ B ) P ( C ∣ B ) P ( Z n = X n , ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n − 1 ) = ∑ ( Z n − 2 , . . . , Z 0 ) ∈ A P ( Z n = X n ∣ Z n − 1 = X n − 1 ) P ( Z n − 2 , . . . , Z 0 ) ∣ Z n − 1 = X n − 1 ) = P ( Z n = X n ∣ Z n − 1 = X n − 1 ) ∑ ( Z n − 2 , . . . , Z 0 ) ∈ A P ( Z n − 2 , . . . , Z 0 ) ∣ Z n − 1 = X n − 1 ) = P ( Z n = X n ∣ Z n − 1 = X n − 1 ) P ( ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n − 1 ) { 2 } P(AC|B)=P(A|B)P(C|B) \\ P(Z_n = X_n,(Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_{n-1})\\ =\sum_{(Z_{n-2},...,Z_0)\in A} P(Z_n = X_n|Z_{n-1}=X_{n-1})P(Z_{n-2},...,Z_0)|Z_{n-1}=X_{n-1}) \\ = P(Z_n = X_n|Z_{n-1}=X_{n-1})\sum_{(Z_{n-2},...,Z_0)\in A}P(Z_{n-2},...,Z_0)|Z_{n-1}=X_{n-1}) \\ = P(Z_n = X_n|Z_{n-1}=X_{n-1})P((Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_{n-1}) \quad\quad \{2\} P(AC∣B)=P(A∣B)P(C∣B)P(Zn​=Xn​,(Zn−2​,...,Z0​)∈A∣Zn−1​=Xn−1​)=(Zn−2​,...,Z0​)∈A∑​P(Zn​=Xn​∣Zn−1​=Xn−1​)P(Zn−2​,...,Z0​)∣Zn−1​=Xn−1​)=P(Zn​=Xn​∣Zn−1​=Xn−1​)(Zn−2​,...,Z0​)∈A∑​P(Zn−2​,...,Z0​)∣Zn−1​=Xn−1​)=P(Zn​=Xn​∣Zn−1​=Xn−1​)P((Zn−2​,...,Z0​)∈A∣Zn−1​=Xn−1​){2}

  {1}和{2}相等可以得到

P ( Z n = X n ∣ Z n − 1 = X n − 1 , ( Z n − 2 , . . . , Z 0 ) ∈ A ) P ( ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n − 1 ) = P ( Z n = X n ∣ Z n − 1 = X n − 1 ) P ( ( Z n − 2 , . . . , Z 0 ) ∈ A ∣ Z n − 1 = X n − 1 ) ⇒ P ( Z n = X n ∣ Z n − 1 = X n − 1 , ( Z n − 2 , . . . , Z 0 ) ∈ A ) = P ( Z n = X n ∣ Z n − 1 = X n − 1 ) P(Z_n = X_n|Z_{n-1}=X_{n-1},(Z_{n-2},...,Z_0)\in A)P((Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_{n-1}) \\ = P(Z_n = X_n|Z_{n-1}=X_{n-1})P((Z_{n-2},...,Z_0)\in A|Z_{n-1}=X_{n-1}) \\ \Rightarrow P(Z_n = X_n|Z_{n-1}=X_{n-1},(Z_{n-2},...,Z_0)\in A) = P(Z_n = X_n|Z_{n-1}=X_{n-1}) P(Zn​=Xn​∣Zn−1​=Xn−1​,(Zn−2​,...,Z0​)∈A)P((Zn−2​,...,Z0​)∈A∣Zn−1​=Xn−1​)=P(Zn​=Xn​∣Zn−1​=Xn−1​)P((Zn−2​,...,Z0​)∈A∣Zn−1​=Xn−1​)⇒P(Zn​=Xn​∣Zn−1​=Xn−1​,(Zn−2​,...,Z0​)∈A)=P(Zn​=Xn​∣Zn−1​=Xn−1​)

  即得到了证明

2.3.3 模糊当前

  当前是能够模糊的吗?

P ( Z n = X n ∣ Z n − 1 ∈ A , Z n − 2 = X n − 2 ) = P ( Z n = X n ∣ Z n − 1 ∈ A ) ( d ) P(Z_n = X_n | Z_{n-1}\in A,Z_{n-2} =X_{n-2}) \cancel= P(Z_n = X_n | Z_{n-1} \in A) \quad\quad (d) P(Zn​=Xn​∣Zn−1​∈A,Zn−2​=Xn−2​)= ​P(Zn​=Xn​∣Zn−1​∈A)(d)

  答案是不能的。这里还是进行直观的描述

  如果我们当前状态是确定的,我们就可以不需要记住是怎么来的,之间往下一个状态进行跳转即可

  如果我们当前状态是不确定的,我们想往下一个状态进行跳转,我们就得知道我们当前在哪,也就需要知道是怎么来的。因为可能会有很多条路径

  因此只有当前是确定的时候,过去才是可以忘记的。

3. 转移概率

3.1 转移概率引入

  下面我们引入马尔科夫链中一个非常重要的概念–转移概率,我们想通过转移概率来挖掘马尔科夫链的运行规律

  假设有一个离散的随机过程,这个随机过程中的每一个随机变量都属于同一个离散的状态空间

{ Z n } n = 0 ∞ Z k ∈ S = { x 1 , x 2 , . . . , x n , . . . } \{ Z_n \}_{n=0}^{\infty} \quad Z_k \in S = \{x_1,x_2,...,x_n,...\} {Zn​}n=0∞​Zk​∈S={x1​,x2​,...,xn​,...}

  我们希望了解这样一个随机过程的联合概率密度。也就是任意n个时刻的联合分布

P ( Z n = x n , . . . , Z 0 = x 0 ) = P ( Z n = x n ∣ Z n − 1 = x n − 1 , . . . , Z 0 = x 0 ) ∗ P ( Z n − 1 = x n − 1 ∣ Z n − 2 = x n − 2 , . . . , Z 0 = x 0 ) ∗ . . . ∗ P ( Z 1 = x 1 ∣ Z 0 = x 0 ) P ( Z 0 = x 0 ) P(Z_n = x_n,...,Z_0 = x_0) \\ = P(Z_n = x_n|Z_{n-1}=x_{n-1},...,Z_0 = x_0)*P(Z_{n-1}=x_{n-1}|Z_{n-2}=x_{n-2},...,Z_0 = x_0)\\ *...*P(Z_1 = x_1|Z_0 = x_0) P(Z_0 = x_0) P(Zn​=xn​,...,Z0​=x0​)=P(Zn​=xn​∣Zn−1​=xn−1​,...,Z0​=x0​)∗P(Zn−1​=xn−1​∣Zn−2​=xn−2​,...,Z0​=x0​)∗...∗P(Z1​=x1​∣Z0​=x0​)P(Z0​=x0​)

  这个式子可以根据马尔科夫性进行简化

P ( Z n = x n , . . . , Z 0 = x 0 ) = ( ∏ k = 1 n P ( Z k = x k ∣ Z k − 1 = x k − 1 ) ) P ( Z 0 = x 0 ) P(Z_n = x_n,...,Z_0 = x_0) = (\prod_{k=1}^nP(Z_k = x_k|Z_{k-1}=x_{k-1}))P(Z_0 = x_0) P(Zn​=xn​,...,Z0​=x0​)=(k=1∏n​P(Zk​=xk​∣Zk−1​=xk−1​))P(Z0​=x0​)

  这个联乘的概率就是转移概率

Transition Probability P ( Z n = x n ∣ Z n − 1 = x n − 1 ) \text{Transition Probability} \\ P(Z_n = x_n | Z_{n-1} = x_{n-1}) Transition ProbabilityP(Zn​=xn​∣Zn−1​=xn−1​)

3.2 转移概率的推广与简化

3.2.1 推广

  事实上,转移概率中两个时刻不一定要相邻。也可以使得跳跃之间间隔n-m,就是一个经过了多次跳跃的复杂转移。我们可以用下面的形式来获得转移概率的推广表示

P ( Z n = x n ∣ Z n − 1 = x n − 1 ) ⇒ P ( Z n = x n ∣ Z m = x m ) ⇒ P ( Z n = j ∣ Z m = i ) = P i j ( n , m ) P(Z_n = x_n | Z_{n-1} = x_{n-1}) \Rightarrow P(Z_n = x_n | Z_{m} = x_{m}) \\ \Rightarrow P(Z_n = j| Z_m = i) = P_{ij}(n,m) P(Zn​=xn​∣Zn−1​=xn−1​)⇒P(Zn​=xn​∣Zm​=xm​)⇒P(Zn​=j∣Zm​=i)=Pij​(n,m)

  Pi,j(n,m)是转移概率的标准表达,转移概率有两个要素,一个是空间要素,这里i和j表示从起点i到终点j。令一个要素是时间,在这里表示m时刻位于位置i,n时刻位于位置j。

  转移概率是个随机过程,一旦能够把这个转移概率计算清楚,就能够得到清晰的马尔科夫链。

  任意一个多元概率分布,都是可以表示转移概率乘积的方式,即使这个多元分布是有跳步的。

P ( Z 5 = k , Z 3 = j , Z 1 = i ) = = P ( Z 5 = k ∣ Z 3 = j , Z 1 = i ) P ( Z 3 = j ∣ Z 1 = i ) P ( Z 1 = i ) = P i j ( 3 , 1 ) P j k ( 5 , 3 ) P ( Z 1 = i ) P(Z_5 = k,Z_3 = j,Z_1 = i) = \\ = P(Z_5 = k|Z_3 = j,Z_1 = i)P(Z_3 = j|Z_1 = i)P(Z_1 = i) \\ =P_{ij}(3,1)P_{jk}(5,3)P(Z_1 = i) P(Z5​=k,Z3​=j,Z1​=i)==P(Z5​=k∣Z3​=j,Z1​=i)P(Z3​=j∣Z1​=i)P(Z1​=i)=Pij​(3,1)Pjk​(5,3)P(Z1​=i)

  而用马尔科夫性得到的概率中有一个单项,我们可以用全概率公式展开为初始概率和转移概率乘积的方式。初始概率一定是个已知的。

P ( Z 1 = i ) = ∑ k P ( Z 1 = i ∣ Z 0 = k ) P ( Z 0 = k ) P(Z_1 = i) = \sum_k P(Z_1 = i|Z_0=k)P(Z_0=k) P(Z1​=i)=k∑​P(Z1​=i∣Z0​=k)P(Z0​=k)

  因此,我们知道,只要知道了转移概率和初始概率,我们就可以求得任意一个马尔科夫链

Initial Distribution Transition Probability \text{Initial Distribution} \\ \text{Transition Probability} Initial DistributionTransition Probability

3.2.2 平稳转移概率–四维简化到三维

  现在我们想对转移概率进行简化,因为每一个转移概率都有四个参数,如果这样的话要计算很多的转移概率。我们希望通过某些手段,让转移概率依赖的参数尽可能变少

P i j ( n , m ) P_{ij}(n,m) Pij​(n,m)

  为了简化这个转移概率,我们要继续增加平稳性的假设。这是我们第三个接触的平稳性。我们最早接触了宽平稳,限定的是一阶矩和二阶矩的不变性。然后在泊松过程中,我们接触了平稳增量特性,限定的是强度不变。

  我们对马尔科夫链增加一个平稳的条件,就是平稳转移概率。指的是,一个转移行为,仅仅依赖于步长,而与该行为发生的时刻没有关系。

Stationary Transition Probability P i j ( n , m ) = P i j ( n − m ) \text{Stationary Transition Probability} \\ P_{ij}(n,m) = P_{ij}(n-m) Stationary Transition ProbabilityPij​(n,m)=Pij​(n−m)

  增加了平稳转移概率的条件之后,我们的转移概率就从四维量变成了三维量,现在转移行为仅仅依赖于步长(耗时)

3.2.3 Chapman-Kolmogorov方程–三维简化到二维

(1) 概述

  即使我们引入了平稳转移概率的定义,这个时候转移概率仍然是个三维量,还是很复杂。

  事实上,转移概率是可以继续转化为若干个概率的和的

P i j ( n ) = P ( 1 ) + P ( 2 ) + . . . + P ( n ) + . . . P_{ij}(n) = P^{(1)} + P^{(2)}+...+P^{(n)}+... Pij​(n)=P(1)+P(2)+...+P(n)+...

  可以直观的来看待这个事情。假设从i经过了5步到了j,那么从i到j必然有很多条路线,每条路径的概率和就是i到j经过5步的转移概率。而每一条路径的概率是若干个一步转移概率的乘积。

P i j ( 5 ) = P i j ( 5 ) p a t h 1 + . . . + P i j ( 5 ) p a t h n P i j ( 5 ) p a t h = P i a ( 1 ) ∗ . . . ∗ P m j ( 1 ) P_{ij}(5) = P_{ij}(5)_{path1}+ ... + P_{ij}(5)_{pathn} \\ P_{ij}(5)_{path} = P_{ia}(1)*...*P_{mj}(1) Pij​(5)=Pij​(5)path1​+...+Pij​(5)pathn​Pij​(5)path​=Pia​(1)∗...∗Pmj​(1)

  因此,一个多步的转移概率,必定是若干个单步转移概率的加法与乘法的组合。

  如果我们能够找到这种组合的方法,转移概率中还剩下的一个时间维度就可以消除了,转移概率就从刚才的三维变成两维了。

(2) CK方程直观表示

  而实现多步转移概率拆分为单步转移概率组合的方法吗,就是Chapman-Kolmogorov Equation。而一旦转移概率变成了二维量,就可以用矩阵表示了。

Chapman-Kolmogorov Equation P i j ( n ) = ∑ k P i k ( m ) P k j ( n − m ) ∀ m < n \text{Chapman-Kolmogorov Equation} \\ P_{ij}(n) = \sum_k P_{ik}(m)P_{kj}(n-m) \quad \forall m<n Chapman-Kolmogorov EquationPij​(n)=k∑​Pik​(m)Pkj​(n−m)∀m<n

  这个方程我们也可以直观表示一下

  我们可以以空间为依据进行分治,假设从i到j有很多条路径,我们选择一个时刻,把在这个时刻到达了这个状态的路径归为一类。然后再在这一类中继续拆分,这样就能够让每一个分类中的路径变短,直到最后成了1步转移。

(3) CK方程证明

  然后我们来证明一下Chapman-Kolmogorov Equation

Prove  P i j ( n ) = ∑ k P i k ( m ) P k j ( n − m ) ∀ m < n \text{Prove } \\ P_{ij}(n) = \sum_k P_{ik}(m)P_{kj}(n-m) \quad \forall m<n Prove Pij​(n)=k∑​Pik​(m)Pkj​(n−m)∀m<n
  证明如下

P i j ( n ) = P ( Z n = j ∣ Z 0 = i ) = ∑ k P ( Z n = j , Z m = k ∣ Z 0 = i ) P_{ij}(n) = P(Z_n=j|Z_0 = i) \\ = \sum_k P(Z_n = j,Z_m = k|Z_0 = i) Pij​(n)=P(Zn​=j∣Z0​=i)=k∑​P(Zn​=j,Zm​=k∣Z0​=i)

  我们可以插入中间点转换概率,然后使用条件概率公式展开

P ( A B ) = P ( A ∣ B ) P ( B ) P(AB) = P(A|B)P(B) P(AB)=P(A∣B)P(B)

P i j ( n ) = ∑ k P ( Z n = j , Z m = k ∣ Z 0 = i ) = ∑ k P ( Z n = j ∣ Z m = k , Z 0 = i ) P ( Z m = k ∣ Z 0 = i ) P_{ij}(n) = \sum_k P(Z_n = j,Z_m = k|Z_0 = i) \\ = \sum_k P(Z_n = j|Z_m = k,Z_0 = i) P(Z_m = k|Z_0 = i) Pij​(n)=k∑​P(Zn​=j,Zm​=k∣Z0​=i)=k∑​P(Zn​=j∣Zm​=k,Z0​=i)P(Zm​=k∣Z0​=i)

  再通过马尔科夫性,即可证明结论

P i j ( n ) = ∑ k P ( Z n = j ∣ Z m = k , Z 0 = i ) P ( Z m = k ∣ Z 0 = i ) = ∑ k P ( Z n = j ∣ Z m = k ) P ( Z m = k ∣ Z 0 = i ) = ∑ k P k j ( n − m ) P i k ( m ) P_{ij}(n)= \sum_k P(Z_n = j|Z_m = k,Z_0 = i) P(Z_m = k|Z_0 = i) \\ = \sum_k P(Z_n = j|Z_m = k) P(Z_m = k|Z_0 = i) \\ = \sum_k P_{kj}(n-m) P_{ik}(m) Pij​(n)=k∑​P(Zn​=j∣Zm​=k,Z0​=i)P(Zm​=k∣Z0​=i)=k∑​P(Zn​=j∣Zm​=k)P(Zm​=k∣Z0​=i)=k∑​Pkj​(n−m)Pik​(m)

  CK方程是通过空间维度对转移概率进行简化的

Spatial Simplification \text{Spatial Simplification} Spatial Simplification

(4) CK方程与转移概率的简化

  CK方程与矩阵乘法非常相似

C = A B C i j = ∑ k A i k B k j C = AB \\ C_{ij} = \sum_k A_{ik} B_{kj} C=ABCij​=k∑​Aik​Bkj​

  我们给一个n步转移概率的定义。其实就是转移概率矩阵。

  这个矩阵的第i行第j列就是从i经过n步到达j的概率

P ( n ) = ( P i j ( n ) ) i j P(n) = (P_{ij}(n))_{ij} P(n)=(Pij​(n))ij​

  我们用CK方程表示转移概率矩阵

P ( n ) = P ( m ) P ( n − m ) P(n) = P(m)P(n-m) P(n)=P(m)P(n−m)

  基于这个方程,我们可以把n步转移概率矩阵表示为

P ( n ) = P ( 1 ) P ( n − 1 ) = ( P ( 1 ) ) 2 P ( n − 2 ) = . . . = ( P ( 1 ) ) n P(n) = P(1)P(n-1)= (P(1))^2 P(n-2) = ...=(P(1))^n P(n)=P(1)P(n−1)=(P(1))2P(n−2)=...=(P(1))n

  因此,我们只需要知道一步转移概率矩阵即可计算出任意一个转移概率矩阵

3.2.4 小结

  通过平稳性,我们可以把时间维度从2维变成1维。而通过ck方程,我们可以把时间维度从1维变成0维。因此,我们就不需要记录时间的维度了。多步转移概率矩阵可以通过一步转移概率矩阵变换得到。

  因此,我们只要有一个一步转移概率矩阵和一个初始概率向量,我们就可以得到一切n维随机变量的联合分布

P ( Z n = x n , . . . , Z 0 = x 0 ) = ( ∏ k = 1 n P ( Z k = x k ∣ Z k − 1 = x k − 1 ) ) P ( Z 0 = x 0 ) P(Z_n = x_n,...,Z_0 = x_0) = (\prod_{k=1}^nP(Z_k = x_k|Z_{k-1}=x_{k-1}))P(Z_0 = x_0) P(Zn​=xn​,...,Z0​=x0​)=(k=1∏n​P(Zk​=xk​∣Zk−1​=xk−1​))P(Z0​=x0​)

( ∏ k = 1 n P ( Z k = x k ∣ Z k − 1 = x k − 1 ) ) ⇒ Calculate by One-Step Transition Matrix P ( Z 0 = x 0 ) ⇒ Initial Probability Vector (\prod_{k=1}^nP(Z_k = x_k|Z_{k-1}=x_{k-1})) \Rightarrow \text{Calculate by One-Step Transition Matrix} \\ P(Z_0 = x_0) \Rightarrow \text{Initial Probability Vector} (k=1∏n​P(Zk​=xk​∣Zk−1​=xk−1​))⇒Calculate by One-Step Transition MatrixP(Z0​=x0​)⇒Initial Probability Vector
  一个矩阵和一个矢量,我们就能够得到马尔科夫链的所有信息
One-Step Transition Matrix + Initial Probability Vector = Everything \text{One-Step Transition Matrix} + \text{Initial Probability Vector} = \text{Everything} One-Step Transition Matrix+Initial Probability Vector=Everything

4. 基于马尔科夫性计算概率的例子

  下面我们通过抛硬币的行为,利用马尔科夫性来进行概率计算,从而简单说明一下马尔科夫性的应用

  假设抛硬币,正面出现的概率是P,反面出现的概率是1-P,我们想要知道第一次抛出正面的次数的期望。

Coin Tossing ( 1 0 P 1 − P ) \text{Coin Tossing} \quad \begin{pmatrix} 1 & 0 \\ P & 1-P \end{pmatrix} Coin Tossing(1P​01−P​)

4.1 基本做法

  一般的思路是,先计算出k次才抛出正面的分布。这个分布是一个几何分布:如果第k次才是正面,必然说明前k-1次都是反面,然后第k次是正面。

P ( N = k ) = ( 1 − P ) k − 1 P P(N=k) = (1-P)^{k-1}P P(N=k)=(1−P)k−1P

  然后使用这个分布求期望,得到的就是第一次抛出正面需要次数的期望

E ( N ) = ∑ k = 1 ∞ k ( 1 − P ) k − 1 P = 1 P E(N) = \sum_{k=1}^{\infty}k(1-P)^{k-1}P = \frac{1}{P} E(N)=k=1∑∞​k(1−P)k−1P=P1​

  这里计算一下这个式子

E ( N ) = ∑ k = 1 ∞ k ( 1 − P ) k − 1 P Let  x = 1 − P E ( N ) = ∑ k = 1 ∞ k ( x ) k − 1 P = ∑ k = 1 ∞ d x k d x P = d ∑ k = 1 ∞ ( x k ) d x P = ( 1 ∗ ( 1 − x ) n 1 − x ) ′ P = 1 P 2 ∗ P = 1 P E(N) = \sum_{k=1}^{\infty}k(1-P)^{k-1}P \\ \text{Let } x = 1-P \\ E(N) = \sum_{k=1}^{\infty}k(x)^{k-1}P =\sum_{k=1}^{\infty} \frac{d x^k}{dx} P \\ = \frac{d\sum_{k=1}^{\infty}(x^k)}{dx} P =(1*\frac{(1-x)^n}{1-x})' P = \frac{1}{P^2}*P \\ = \frac{1}{P} E(N)=k=1∑∞​k(1−P)k−1PLet x=1−PE(N)=k=1∑∞​k(x)k−1P=k=1∑∞​dxdxk​P=dxd∑k=1∞​(xk)​P=(1∗1−x(1−x)n​)′P=P21​∗P=P1​

4.2 基于马尔科夫性的解法

  其实基于传统的解法不是非常合理,因为期望是对整个系统的一种很粗浅的描述,而概率密度是对整个系统非常精确的一种描述,如果有了概率密度,其实也不是非常需要期望。而马尔科夫的思路,可以让我们不需要使用概率密度就能够求解

  我们可以这样思考我们的问题,如果我们抛出了一次硬币,是正面,我们就不用抛了。而如果我们第一次抛出硬币是反面,相当于我们状态又变成了从头开始,这次反面对后面的影响,不过是使得次数多了一次而已

E ( N ) = E ( E ( N ∣ Z 1 ) ) = E ( N ∣ Z 1 = 1 ) P ( Z 1 = 1 ) + E ( N ∣ Z 1 = 0 ) P ( Z 1 = 0 ) = E ( N ∣ Z 1 = 1 ) P ( Z 1 = 1 ) + ( 1 + E ( N ) ) P ( Z 1 = 0 ) = 1 ∗ P + ( 1 + E ( N ) ) ( 1 − P ) E ( N ) = 1 P E(N) = E(E(N|Z_1)) = E(N|Z_1 = 1) P(Z_1 = 1) + E(N|Z_1 = 0)P(Z_1 = 0) \\ = E(N|Z_1 = 1) P(Z_1 = 1) +(1+E(N))P(Z_1 = 0) \\ = 1*P + (1+E(N))(1-P) \\ E(N) = \frac{1}{P} E(N)=E(E(N∣Z1​))=E(N∣Z1​=1)P(Z1​=1)+E(N∣Z1​=0)P(Z1​=0)=E(N∣Z1​=1)P(Z1​=1)+(1+E(N))P(Z1​=0)=1∗P+(1+E(N))(1−P)E(N)=P1​

  这个问题还可以再扩展一下,我们希望连续两次投硬币都是正面,第一次出现这种情况的次数的期望是多少?

E ( N ) = E ( E ( N ∣ Z 1 , Z 2 ) ) = E ( N ∣ Z 1 = 0 ) P ( Z 1 = 0 ) + E ( N ∣ Z 1 = 1 , Z 2 = 0 ) P ( Z 1 = 1 ) P ( Z 2 = 0 ) + E ( N ∣ Z 1 = 1 , Z 2 = 1 ) P ( Z 1 = 1 ) P ( Z 2 = 1 ) = ( 1 + E ( N ) ) ( 1 − P ) + ( 2 + E ( N ) ) P ( 1 − P ) + 2 ∗ P ∗ P = ( 1 + E ( N ) ) ( 1 − P ) + ( 2 + E ( N ) ) P ( 1 − P ) + 2 P 2 E ( N ) = 1 + P P 2 E(N) = E(E(N|Z_1,Z_2)) \\ = E(N|Z_1=0)P(Z_1 = 0) + E(N|Z_1=1,Z_2 = 0)P(Z_1 = 1)P(Z_2 = 0) + E(N|Z_1=1,Z_2 = 1)P(Z_1 = 1)P(Z_2 = 1) \\ = (1+E(N)) (1-P) + (2+E(N)) P(1-P) + 2*P*P \\ =(1+E(N)) (1-P) +(2+E(N)) P(1-P) +2P^2 \\ E(N) = \frac{1+P}{P^2} E(N)=E(E(N∣Z1​,Z2​))=E(N∣Z1​=0)P(Z1​=0)+E(N∣Z1​=1,Z2​=0)P(Z1​=1)P(Z2​=0)+E(N∣Z1​=1,Z2​=1)P(Z1​=1)P(Z2​=1)=(1+E(N))(1−P)+(2+E(N))P(1−P)+2∗P∗P=(1+E(N))(1−P)+(2+E(N))P(1−P)+2P2E(N)=P21+P​

  通过这样的两个例子,我们就了解了马尔科夫性的重要性。

5. 马尔科夫链稳态分析前置知识

5.1 概述

  接下来会对马氏链的稳态进行分析,这是一种定性行为。我们假设状态空间只有两种状态的转移

  我们描绘一下转移概率矩阵。这是一步状态转移矩阵,然后我们可以通过转移概率矩阵的n次幂判断其稳定性

P = ( 1 − P P P 1 − P ) P = \begin{pmatrix} 1-P & P \\ P & 1-P \end{pmatrix} P=(1−PP​P1−P​)
qualitative Stable Behavior \text{qualitative} \\ \text{Stable Behavior} qualitativeStable Behavior

⇒ P n \Rightarrow P^n ⇒Pn

  马氏链最终会变换成一个随机变量

P i j ( n ) P_{ij}(n) Pij​(n)

5.2 相关概念

5.2.1 可达

Reachable \text{Reachable} Reachable

  从i到j可达是指,能够找到一个n,使得从i到j的n步转移概率大于0,也就是从i到j是有路径到达的,这个路径是有向路径

i , j i → j ⇔ ∃ n P i j ( n ) > 0 i,j \quad i\rightarrow j \Leftrightarrow \exists n \quad P_{ij}(n) >0 i,ji→j⇔∃nPij​(n)>0

5.2.2 相通

Commutative \text{Commutative} Commutative

  两个状态相通是指,从i可达j,并且从j可达i。这二者可以不是同一条路径。相通是指双向可达。

i ↔ j ⇔ i → j j → i i \leftrightarrow j \Leftrightarrow i \rightarrow j \quad j \rightarrow i i↔j⇔i→jj→i

5.2.3 闭集

Closed Set \text{Closed Set} Closed Set

  来说明一下闭集的概念。假设所有状态是全集S,S中的一个子集是C,如果C是个闭集,那么,如果i在C中,而j不在C中,i不可达j。闭集是一个只能进不能出的集合。

S C ⊂ S C is Closed ⇔ i ∈ C , j ∈ C ⇒ i → j S \quad C \subset S \quad \text{C is Closed} \\ \Leftrightarrow i \in C, \quad j \cancel \in C \Rightarrow i \cancel \rightarrow j SC⊂SC is Closed⇔i∈C,j∈ ​C⇒i→ ​j

5.2.4 约化

Reduction \text{Reduction} Reduction

  如果集合C是一个闭集,闭集说明状态的转移只能在自身内部进行。如果我们把闭集C之外的状态全部抹去,剩下的仍然是一个完整的马尔科夫链。从大马尔科夫链简化到小马尔科夫链的过程叫做约化

  约化的好处在于,等里面的闭集研究清楚了之后,再研究外面的,只需要了解怎么从外面转移进来的就行了

  最后马尔科夫链会变成一种,只有闭集或者只向闭集内转移的状态

  通过约化能够减少一步转移矩阵的规模,求幂次就变得简单了。

5.2.5 不可约

Irreducible \text{Irreducible} Irreducible

  如果一个链没有闭的真子集,就叫做不可约

No Closed True Subset \text{No Closed True Subset} No Closed True Subset

  如果一个马尔科夫链中没有闭集,就约化不动,等效于所有的状态都是相通的。

Irreducible ⇔ ∀ i , j i ↔ j \text{Irreducible} \Leftrightarrow \forall i,j \quad i \leftrightarrow j Irreducible⇔∀i,ji↔j

  我们可以证明一下这个事情,如果所有状态都是相通的,证明这个集合是不可约的是平凡情况,不需要证明

Irreducible ⇐ ∀ i , j i ↔ j Trivial \text{Irreducible} \Leftarrow \forall i,j \quad i \leftrightarrow j \text{ Trivial} Irreducible⇐∀i,ji↔j Trivial

  我们证明一下不可约能够证明状态是相通的,证明如下

∀ i A i = { j : i → j } ⇒ A i is closed \forall i \quad A_i = \{j: i \rightarrow j \} \Rightarrow A_i \text{ is closed} ∀iAi​={j:i→j}⇒Ai​ is closed

  我们可以这样证明,我们假设任意一个状态i,i可以到达的状态是j,由i可以到达的状态j构成的集合为Ai,如果我们能够证明Ai是个闭集,我们就能够证明所有的状态都是相通的。因为我们已知Ai不可约意味着没有闭的真子集,Ai如果是个闭集,必然意味着Ai是全集,i能够到达的状态是全集,而i又是任取的,必然意味着所有状态都是相通的。

  现在我们的目标就是,证明i能够到达的状态的集合是个闭集

  证明闭集可以这样证明

∀ j ∈ A i k ∈ A i ⇒ j → k \forall j \in A_i \quad k \cancel \in A_i \Rightarrow j \cancel \rightarrow k ∀j∈Ai​k∈ ​Ai​⇒j→ ​k

  我们假设j在集合Ai中,k不在集合Ai中,j必定到达不了k,如果这个证明了,Ai必定是个闭集。

  我们可以使用反证法,我们假设j能够到达k,由于i能够到达j,而j能够达到k,必定i能够到达k,这样的话,k应该在集合Ai内,与已知相矛盾,因此证明Ai必定是个闭集。

Assume j → k Logic i → j ⇒ i → k ⇒ k ∈ A i Prove j → k ⇒ ∃ n P j k ( n ) > 0 i → j ⇒ ∃ m P i j ( m ) > 0 P i k ( m + n ) = ∑ l P i l ( m ) P l k ( n ) ≥ P i j ( m ) P j k ( n ) > 0 ⇒ i → k \text{Assume} \quad j\rightarrow k \\ \text{Logic}\\ i \rightarrow j \Rightarrow i \rightarrow k \Rightarrow k \in A_i \\ \text{Prove}\\ j \rightarrow k \Rightarrow \exists n \quad P_{jk}(n) > 0 \\ i \rightarrow j \Rightarrow \exists m \quad P_{ij}(m) >0 \\ P_{ik}(m+n) = \sum_l P_{il}(m)P_{lk}(n) \geq P_{ij}(m)P_{jk}(n) >0 \\ \Rightarrow i \rightarrow k Assumej→kLogici→j⇒i→k⇒k∈Ai​Provej→k⇒∃nPjk​(n)>0i→j⇒∃mPij​(m)>0Pik​(m+n)=l∑​Pil​(m)Plk​(n)≥Pij​(m)Pjk​(n)>0⇒i→k

  然后我们就证明了,不可约等价于所有状态都是相通的

5.3 不可约与转移概率矩阵

  我们从转移概率矩阵的角度体会一下可约和不可约。

  一般来说,如果要对转移概率矩阵做行变换,列也要跟着变,不然会乱。而如果转移概率矩阵是可约的,可以通过初等行变换的方法,得到一个有一部分0的转移概率矩阵

  得到的C是个完整的状态转移矩阵,C是个完整的马氏链。做幂次运算的时候,可以简化运算

P = ( A B 0 C ) P n = ( ∗ ∗ 0 C n ) P = \begin{pmatrix} A& B \\ 0 & C \end{pmatrix} \\ P^n = \begin{pmatrix} * & * \\ 0 & C^n \end{pmatrix} P=(A0​BC​)Pn=(∗0​∗Cn​)

  如果C里面还有闭集,可以继续通过适合的行变换把矩阵变成阶梯状

  如果马尔科夫链不可约化,那么所有状态都是相通的,矩阵是不能转化成没有0的部分的。

  事实上,不可约矩阵不好证明。因为不可约矩阵没有肯定形式的定义,因此只能通过遍历来证明。

5.4 首达与CK方程

5.4.1 转移概率的时间分解

  我们引入下一个概念,叫做首达。

First Passage \text{First Passage} First Passage

  首达是指,从i出发经过n步首次到达j的概率,有这样的定义

f i j ( n ) = P ( Z n = j , Z n − 1 = j , . . . , Z 1 = j ∣ Z 0 = i ) f_{ij}(n) = P(Z_n = j,Z_{n-1}\cancel = j,...,Z_1 \cancel = j|Z_0 = i) fij​(n)=P(Zn​=j,Zn−1​= ​j,...,Z1​= ​j∣Z0​=i)

f i j ( n ) ≤ P i j ( n ) f_{ij}(n) \leq P_{ij}(n) fij​(n)≤Pij​(n)

  首达概率一定是小于转移概率的。

  转移概率可以通过CK公式,基于空间进行分解。同样,转移概率也可以基于首达概率,基于时间进行分解。

P i j ( n ) = ∑ k = 1 n f i j ( k ) P j j ( n − k ) P_{ij}(n) = \sum_{k=1}^n f_{ij}(k) P_{jj}(n-k) Pij​(n)=k=1∑n​fij​(k)Pjj​(n−k)

  这个式子的含义意思为,i经过n步到达j的转移概率可以分解为i通过k步首次到达k,然后在j上轮转了n-k步的概率的和。

5.4.2 转移概率的时间分解与空间分解比较

  把时间分解和空间分解放到一起比较

P i j ( n ) = ∑ k = 1 n f i j ( k ) P j j ( n − k ) Temporal P i j ( n ) = ∑ k P i k ( m ) P k j ( n − m ) Spatial P_{ij}(n) = \sum_{k=1}^n f_{ij}(k) P_{jj}(n-k) \quad \text{ Temporal}\\ P_{ij}(n) = \sum_k P_{ik}(m)P_{kj}(n-m) \quad \text{ Spatial} Pij​(n)=k=1∑n​fij​(k)Pjj​(n−k) TemporalPij​(n)=k∑​Pik​(m)Pkj​(n−m) Spatial

5.4.3 转移概率的时间分解证明

  我们来证明一下时间分解的公式

  我们引入首达时刻的概念

T : First Passage Time T = m i n k { Z k = j ∣ Z 0 = i } T: \text{First Passage Time} \\ T = min_k \{Z_k = j | Z_0 = i\} T:First Passage TimeT=mink​{Zk​=j∣Z0​=i}

P i j ( n ) = P ( Z n = j ∣ Z 0 = i ) = ∑ k = 1 n P ( Z n = j , T = k ∣ Z 0 = i ) P_{ij}(n) = P(Z_n=j|Z_0 = i) = \sum_{k=1}^n P(Z_n = j,T=k|Z_0 = i) Pij​(n)=P(Zn​=j∣Z0​=i)=k=1∑n​P(Zn​=j,T=k∣Z0​=i)

{ T = k } = { Z k = j , Z k − 1 = j , . . . , Z 1 = j } \{ T=k\} = \{ Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j\} {T=k}={Zk​=j,Zk−1​= ​j,...,Z1​= ​j}

  我们可以在这里用全概率公式展开,这里T=k的意思是,k时刻到达了j,k-1一直到1时刻都从来没有到达过j
P i j ( n ) = ∑ k = 1 n P ( Z n = j , T = k ∣ Z 0 = i ) = ∑ k = 1 n P ( Z n = j ∣ T = k , Z 0 = i ) P ( Z k = j , Z k − 1 = j , . . . , Z 1 = j ∣ Z 0 = i ) = ∑ k = 1 n P ( Z n = j ∣ Z k = j , Z k − 1 = j , . . . , Z 1 = j , Z 0 = i ) P ( Z k = j , Z k − 1 = j , . . . , Z 1 = j ∣ Z 0 = i ) P_{ij}(n) = \sum_{k=1}^n P(Z_n = j,T=k|Z_0 = i) \\ = \sum_{k=1}^n P(Z_n = j|T=k,Z_0 = i) P(Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j|Z_0 = i) \\ = \sum_{k=1}^n P(Z_n = j|Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j,Z_0 = i) P(Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j|Z_0 = i) Pij​(n)=k=1∑n​P(Zn​=j,T=k∣Z0​=i)=k=1∑n​P(Zn​=j∣T=k,Z0​=i)P(Zk​=j,Zk−1​= ​j,...,Z1​= ​j∣Z0​=i)=k=1∑n​P(Zn​=j∣Zk​=j,Zk−1​= ​j,...,Z1​= ​j,Z0​=i)P(Zk​=j,Zk−1​= ​j,...,Z1​= ​j∣Z0​=i)

  使用马尔科夫性

P i j ( n ) = ∑ k = 1 n P ( Z n = j ∣ Z k = j , Z k − 1 = j , . . . , Z 1 = j , Z 0 = i ) P ( Z k = j , Z k − 1 = j , . . . , Z 1 = j ∣ Z 0 = i ) = ∑ k = 1 n P ( Z n = j ∣ Z k = j ) P ( Z k = j , Z k − 1 = j , . . . , Z 1 = j ∣ Z 0 = i ) = ∑ k = 1 n P j j ( n − k ) f i j ( k ) P_{ij}(n) = \sum_{k=1}^n P(Z_n = j|Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j,Z_0 = i) P(Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j|Z_0 = i) \\ = \sum_{k=1}^n P(Z_n = j|Z_k = j) P(Z_k = j,Z_{k-1} \cancel=j,...,Z_{1} \cancel=j|Z_0 = i) \\ = \sum_{k=1}^n P_{jj}(n-k)f_{ij}(k) Pij​(n)=k=1∑n​P(Zn​=j∣Zk​=j,Zk−1​= ​j,...,Z1​= ​j,Z0​=i)P(Zk​=j,Zk−1​= ​j,...,Z1​= ​j∣Z0​=i)=k=1∑n​P(Zn​=j∣Zk​=j)P(Zk​=j,Zk−1​= ​j,...,Z1​= ​j∣Z0​=i)=k=1∑n​Pjj​(n−k)fij​(k)

  就证明了我们的时间分解

P i j ( n ) = ∑ k = 1 n f i j ( k ) P j j ( n − k ) Temporal P_{ij}(n) = \sum_{k=1}^n f_{ij}(k) P_{jj}(n-k) \quad \text{ Temporal}\\ Pij​(n)=k=1∑n​fij​(k)Pjj​(n−k) Temporal

【随机过程】14 - 离散时间马氏链与转移概率相关推荐

  1. 【随机过程】18 - 连续时间马氏链与排队论

    连续时间马尔科夫链与排队论 文章目录 连续时间马尔科夫链与排队论 1. 连续时间马氏链 1.1 概述 1.2 停留时间的分布 1.3 跳变概率 1.3.1 连续时间马氏链CK方程 1.3.2 Q矩阵 ...

  2. 数学建模(六) 主成分分析,聚类分析,对策论,马氏链

    全并到一起写是因为我只想写十篇. 1.主成分分析 PCA!!! 主成分分析(Principal Component Analysis, PCA),将多个变量通过线性变换以选出较少个数重要变量的一种多元 ...

  3. 有趣的马氏链及其平稳分布

    备注:参考LDA数学八卦讲述很详细,有需要的可以自行下载 马氏链的数学定义如下: P(Xt+1=x|Xt,Xt−1,⋯)=P(Xt+1=x|Xt) 假设当前这一代人处在下层.中层.上层的人的比例是概率 ...

  4. 【数学建模】马氏链模型(基本概念+正则链+吸收链)

    马氏链模型(Markov Chain) 对于有随机因素影响的动态系统,系统从这个时期到下个时期的状态按照一定的概率进行转移,并且下个时期的状态只取决于这个时期的状态和转移概率. 无后效性:已知现在,将 ...

  5. [学习笔记]马氏链模型

    引例: (带有反射壁的随机徘徊)如果在原点右边距离原点一个单位及距原点 s(s > 1)个单位处各立一个弹性壁.一个质点在数轴右半部从距原点两个单位处开始随机徘徊.每次分别以概率 p(0 < ...

  6. 齐次马氏链的性质(详解)

    目录 一.齐次马氏链和一般马氏链的区别 二.齐次马氏链的性质 1.计算n步转移矩阵 2.熟悉绝对分布,初始分布,极限分布 3.齐次马氏链的遍历性和平稳性 3.0一个重要定理 3.1遍历性定义 3.2判 ...

  7. 马氏链,Metropolis-Hastings采样与Gibbs采样的理解(附有python仿真)

    文章目录 马氏链 原理 采样方法 MH采样 原理 代码 Gibbs采样 原理 代码 马氏链 原理 采样方法 所谓的采样方法,主要就是利用了马氏链的性质 πn(x)\pi_n(x)πn​(x)为一个离散 ...

  8. 【老生谈算法】matlab实现马氏链算法源码——马氏链

    matlab马氏链代码 1.文档下载: 本算法已经整理成文档如下,有需要的朋友可以点击进行下载 序号 文档(点击下载) 本项目文档 [老生谈算法]matlab马氏链代码.docx 2.算法详解: 1. ...

  9. 数学建模笔记(十四):马氏链模型

    文章目录 一.引例:健康与疾病(介绍马氏链基本概念和性质) 1.第一类问题背景(不考虑死亡) 2.状态与状态转移(趋于稳定,与初值无关) 3.第二类问题背景(考虑死亡) 4.状态转移(结局已定) 二. ...

最新文章

  1. 人工智能顶会WSDM2021 Best Paper Award 发布!
  2. LinkedHashMap 实现缓存(LRU、FIFO、weakhashMap)
  3. leetcode 450. 删除二叉搜索树中的节点 c语言实现
  4. 配置数据库引擎BDE(Borland DataBase Engine)
  5. 电气论文:负荷区间预测(机器学习简单实现)
  6. 2015年第六届蓝桥杯 - 省赛 - C/C++大学C组 - B. 立方尾不变
  7. ASP.NET Core MVC – Form Tag Helpers
  8. bugku——普通的二维码(进制转换)
  9. Django数据库配置
  10. linux docker 安装sql,CentOS7使用Docker安装SQL Server 2017
  11. symantec linux版命令,symantec backup exec 2010 linux客户端的配置
  12. 两个平面的位置关系和判定方程组解_精品获奖教案 1.2.4平面与平面的位置关系(2)教案 苏教版必修2...
  13. 目标跟踪 — MOSSE
  14. 计算机怎么硬盘重做系统,怎么为双硬盘的电脑重装系统
  15. Task04 Python操作PDF
  16. 为什么「计件工资」的管理需要数字化?这家企业用实践解答
  17. 基于深度学习的小目标检测方法的调查和性能评估
  18. X-NVR2000视频存储及安防管理一体机
  19. L314 单音节词读音规则(二)-元音字母发音规则
  20. 无需交 300 元认证费,快速创建已认证的小程序

热门文章

  1. jmeter函数助手到底在哪
  2. 企业级信息系统开发讲课笔记3.3 基于XML配置方式SSM框架西蒙购物网
  3. 小评《史蒂夫乔布斯传》
  4. 最新:2022年中国科技核心期刊目录公布(附完整版目录)
  5. 计算机网络实验(Wireshark实验)
  6. android电话号码导入iphone6,将Android通讯录导入iphone的方法
  7. c++课程设计图书管理系统
  8. 计算机专业班级口号霸气顺口,霸气班级口号(精选50句)
  9. 一封来自Java程序员的情书
  10. java canvas 打开图片_一步步教你利用Canvas对图片进行处理