机器学习笔记之马尔可夫链蒙特卡洛方法——MH采样算法

  • 引言
    • 回顾:马尔可夫链与平稳分布
      • 马尔可夫链
      • 平稳分布
    • MH采样算法
      • 采样思路
      • MH采样算法过程

引言

上一节介绍了马尔可夫链(Markov Chain)以及平稳分布。本节将马尔可夫链与蒙特卡洛方法相结合,介绍MH采样算法

回顾:马尔可夫链与平稳分布

马尔可夫链

基于齐次马尔可夫假设以一阶齐次马尔可夫假设 为例, t + 1 t+1 t+1时刻的随机变量 X t + 1 \mathcal X_{t+1} Xt+1​与 t t t时刻的随机变量 X t \mathcal X_t Xt​之间的关联关系如下:
P ( X t + 1 ∣ X t , X t − 1 , ⋯ , X 1 ) = P ( X t + 1 ∣ X t ) P(\mathcal X_{t+1} \mid \mathcal X_t,\mathcal X_{t-1},\cdots,\mathcal X_1) = P(\mathcal X_{t+1} \mid \mathcal X_t) P(Xt+1​∣Xt​,Xt−1​,⋯,X1​)=P(Xt+1​∣Xt​)
针对马尔可夫链任一时刻的随机变量 X t \mathcal X_t Xt​可选择的结果均是离散的 这种情况,定义共包含 K \mathcal K K种选择方式, t t t时刻随机变量 X t \mathcal X_t Xt​的概率分布 π ( X t ) \pi(\mathcal X_t) π(Xt​)表示如下:
π ( X t ) = [ π ( X t = x 1 ) , π ( X t = x 2 ) , ⋯ , π ( X t = x K ) ] K × 1 T \pi(\mathcal X_t) = \left[\pi(\mathcal X_t = x_1),\pi(\mathcal X_t = x_2),\cdots,\pi(\mathcal X_t = x_{\mathcal K})\right]^{T}_{\mathcal K \times 1} π(Xt​)=[π(Xt​=x1​),π(Xt​=x2​),⋯,π(Xt​=xK​)]K×1T​
对应地,该马尔可夫链状态转移矩阵是一个 K × K \mathcal K \times \mathcal K K×K的方阵;并且矩阵中的每一个元素 a i j ∈ A a_{ij} \in \mathcal A aij​∈A均表示基于转移过程选择的条件概率
A = [ a i j ] K × K i , j ∈ { 1 , 2 , ⋯ , K } a i j = P ( X t + 1 = x j ∣ X t = x i ) t = 1 , 2 , ⋯ \mathcal A = [a_{ij}]_{\mathcal K \times \mathcal K} \quad i,j \in \{1,2,\cdots,\mathcal K\} \\ a_{ij} = P(\mathcal X_{t+1} = x_j \mid \mathcal X_t = x_i) \quad t=1,2,\cdots A=[aij​]K×K​i,j∈{1,2,⋯,K}aij​=P(Xt+1​=xj​∣Xt​=xi​)t=1,2,⋯

平稳分布

平稳分布(Stationary Distribution)表示马尔可夫链具有某种平稳性质的概率分布。平稳分布存在的底层逻辑在于 状态转移矩阵是一个双随机矩阵

  • 状态转移矩阵是一个 K × K \mathcal K \times \mathcal K K×K的方阵;
  • 状态转移矩阵各行、列元素之和为1;

基于双随机矩阵的性质,得到状态转移矩阵的特征值均 ≤ 1 \leq1 ≤1恒成立
通过证明,只要马尔可夫链的状态转移矩阵 确定的条件下,在未来的转移过程中必然会逼近至平稳分布
具体证明过程请看上一节内容~传送门

假设 m m m时刻状态下达到平稳分布,则有:
π ( X m ) = π ( X m + 1 ) = π ( X m + 2 ) = ⋯ \pi(\mathcal X_m) = \pi(\mathcal X_{m+1}) = \pi(\mathcal X_{m+2}) = \cdots π(Xm​)=π(Xm+1​)=π(Xm+2​)=⋯

如何判定当前时刻的分布是否为平稳分布?需要借助细致平衡原则(Detail Balance):
π ( X = x i ) ⋅ P ( X = x ∗ ∣ X = x ) = π ( X = x ∗ ) ⋅ P ( X = x ∣ X = x ∗ ) \pi(\mathcal X = x_i) \cdot P(\mathcal X = x^* \mid \mathcal X = x) = \pi(\mathcal X = x^*) \cdot P(\mathcal X = x \mid \mathcal X = x^*) π(X=xi​)⋅P(X=x∗∣X=x)=π(X=x∗)⋅P(X=x∣X=x∗)
细致平衡是概率分布是平稳分布的充分非必要条件,因此可以通过细致平衡去判别平稳分布,反之不然。

MH采样算法

在蒙特卡洛方法介绍中提到,推断(Inference)关心的问题是后验概率 P ( Z ∣ X ) P(\mathcal Z \mid \mathcal X) P(Z∣X)的结果,或者是关于 P ( Z ∣ X ) P(\mathcal Z\mid \mathcal X) P(Z∣X)的期望信息:
E Z ∣ X [ f ( Z ) ] = ∫ Z ∣ X P ( Z ∣ X ) f ( Z ) d Z \mathbb E_{\mathcal Z \mid \mathcal X} [f(\mathcal Z)] = \int_{\mathcal Z \mid\mathcal X} P(\mathcal Z \mid \mathcal X)f(\mathcal Z) d\mathcal Z EZ∣X​[f(Z)]=∫Z∣X​P(Z∣X)f(Z)dZ
通过蒙特卡洛方法,从概率分布 P ( Z ∣ X ) P(\mathcal Z \mid \mathcal X) P(Z∣X)中进行采样,再进行计算:
z ( 1 ) , z ( 2 ) , ⋯ , z ( N ) ∼ P ( Z ∣ X ) E Z ∣ X [ f ( Z ) ] = 1 N ∑ i = 1 N f ( z ( i ) ) z^{(1)},z^{(2)},\cdots,z^{(N)} \sim P(\mathcal Z \mid \mathcal X) \\ \mathbb E_{\mathcal Z \mid \mathcal X} [f(\mathcal Z)] = \frac{1}{N} \sum_{i=1}^{N} f(z^{(i)}) z(1),z(2),⋯,z(N)∼P(Z∣X)EZ∣X​[f(Z)]=N1​i=1∑N​f(z(i))
但真实情况是:从 P ( Z ∣ X ) P(\mathcal Z \mid \mathcal X) P(Z∣X)中采集样本是非常复杂的事情。因此借助马尔可夫链(Markov Chain)来间接获取样本信息。

采样思路

马尔可夫链是如何实现采样的?
假设已经得到一个状态转移矩阵 A ∗ \mathcal A^* A∗, A ∗ \mathcal A^* A∗满足:在一阶齐次马尔可夫假设的条件下,任意两个连续状态下的随机变量 X \mathcal X X对应的概率分布,均满足细致平衡原则

换句话说, A ∗ \mathcal A^* A∗使马尔可夫链 { X T } \{\mathcal X_{T}\} {XT​}共用同一个概率分布,也就是平稳分布

  • 此时,给定一个初始节点:
    X i n i t = x i ( i = 1 , 2 , ⋯ , K ) \mathcal X_{init} = x_i \quad (i=1,2,\cdots,\mathcal K) Xinit​=xi​(i=1,2,⋯,K)
  • 通过状态转移过程,随机得到下一状态随机变量的选择结果 x j x_j xj​:
    x j ∼ P ( X 1 ∣ X i n i t = x i ) x_j \sim P(\mathcal X_1 \mid \mathcal X_{init} = x_i) xj​∼P(X1​∣Xinit​=xi​)
  • 同上,根据上一时刻的状态转移过程,随机得到下一状态随机变量的选择结果 x k x_k xk​:
    x k ∼ P ( X 2 ∣ X 1 = x j ) x_k \sim P(\mathcal X_2 \mid \mathcal X_1 = x_j) xk​∼P(X2​∣X1​=xj​)

以此类推,最终会得到这样一组样本点集合。这些样本点均服从平稳分布
{ x i , x j , x k , ⋯ } \{x_i,x_j,x_k,\cdots\} {xi​,xj​,xk​,⋯}

MH采样算法过程

基于上述采样思路,将获取平稳分布问题转化为:如何找到一个恰当的状态转移矩阵,使得马尔可夫链的各分布是平稳分布

  • 首先,构建关于 P ( Z ∣ X ) P(\mathcal Z \mid \mathcal X) P(Z∣X)的马尔可夫链并随机构建一个状态转移矩阵 Q \mathcal Q Q:
    Q = [ q i j ] K × K ( i , j ∈ { 1 , 2 , ⋯ , K } ) \mathcal Q = [q_{ij}]_{\mathcal K \times \mathcal K} \quad (i,j \in \{1,2,\cdots,\mathcal K\}) Q=[qij​]K×K​(i,j∈{1,2,⋯,K})
    此时关于细致平衡的等式两项有:
    不能说是一定不相等,而是相等的概率极低。任意随机一个 Q \mathcal Q Q就能得到平稳分布,那运气可太好了~
    P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ≠ P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) P(\mathcal Z =z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z) \neq P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*) P(Z=z∣X)⋅Q(Z=z∗∣Z=z)=P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)

  • 基于上述式子,假设存在关于 z , z ∗ z,z^* z,z∗的函数 α ( z , z ∗ ) \alpha(z,z^*) α(z,z∗),使得
    P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ⋅ α ( z , z ∗ ) = P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) ⋅ α ( z ∗ , z ) P(\mathcal Z =z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z) \cdot \alpha(z,z^*)= P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*) \cdot \alpha(z^*,z) P(Z=z∣X)⋅Q(Z=z∗∣Z=z)⋅α(z,z∗)=P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)⋅α(z∗,z)
    我们将 Q ( Z = z ∗ ∣ Z = z ) ⋅ α ( z , z ∗ ) Q(\mathcal Z = z^* \mid \mathcal Z = z) \cdot \alpha(z,z^*) Q(Z=z∗∣Z=z)⋅α(z,z∗)记作 P ( Z = z ∗ ∣ Z = z ) \mathcal P(\mathcal Z = z^* \mid \mathcal Z = z) P(Z=z∗∣Z=z);
    反之, Q ( Z = z ∣ Z = z ∗ ) ⋅ α ( z ∗ , z ) \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*) \cdot \alpha(z^*,z) Q(Z=z∣Z=z∗)⋅α(z∗,z)记作 P ( Z = z ∣ Z = z ∗ ) \mathcal P(\mathcal Z = z \mid \mathcal Z = z^*) P(Z=z∣Z=z∗)。上述公式可转化为:
    只是一个符号的变换, P \mathcal P P P P P不是同一个符号~
    P ( Z = z ∣ X ) ⋅ P ( Z = z ∗ ∣ Z = z ) = P ( Z = z ∗ ∣ X ) ⋅ P ( Z = z ∣ Z = z ∗ ) P(\mathcal Z = z \mid \mathcal X) \cdot \mathcal P(\mathcal Z = z^* \mid \mathcal Z = z) = P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal P(\mathcal Z = z \mid \mathcal Z = z^*) P(Z=z∣X)⋅P(Z=z∗∣Z=z)=P(Z=z∗∣X)⋅P(Z=z∣Z=z∗)
    此时,上述公式满足细致平衡原则,此时的分布是平稳分布

  • 回溯上述过程,我们称 α ( z , z ∗ ) \alpha(z,z^*) α(z,z∗)函数为接收率,其具体表示如下:
    α ( z , z ∗ ) = min ⁡ [ 1 , P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ] \alpha(z,z^*) = \mathop{\min}\left[1,\frac{P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*)}{P(\mathcal Z = z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z)}\right] α(z,z∗)=min[1,P(Z=z∣X)⋅Q(Z=z∗∣Z=z)P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)​]
    对接受率函数 α ( z , z ∗ ) \alpha(z,z^*) α(z,z∗)进行分析:

    • 观察 α ( z , z ∗ ) \alpha(z,z^*) α(z,z∗),因为 Q ( Z = z ∣ Z = z ∗ ) \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*) Q(Z=z∣Z=z∗)和 Q ( Z = z ∣ Z = z ∗ ) \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*) Q(Z=z∣Z=z∗)均是条件概率,因此分数项大于等于0恒成立。从而 α ( z , z ∗ ) \alpha(z,z^*) α(z,z∗)的值域为:
      α ( z , z ∗ ) ∈ [ 0 , 1 ] \alpha(z,z^*) \in [0,1] α(z,z∗)∈[0,1]
    • 将 α ( z , z ∗ ) \alpha(z,z^*) α(z,z∗)代入上式中,有:
      P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ⋅ α ( z , z ∗ ) = P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ⋅ min ⁡ [ 1 , P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ] = min ⁡ [ P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) , P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) ] = P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) ⋅ min ⁡ [ 1 , P ( Z = z ∣ X ) ⋅ Q ( Z = z ∗ ∣ Z = z ) P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) ] = P ( Z = z ∗ ∣ X ) ⋅ Q ( Z = z ∣ Z = z ∗ ) ⋅ α ( z ∗ , z ) \begin{aligned} & P(\mathcal Z =z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z) \cdot \alpha(z,z^*) \\ & = P(\mathcal Z =z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z) \cdot \mathop{\min}\left[1,\frac{P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*)}{P(\mathcal Z = z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z)}\right] \\ & = \min \left[P(\mathcal Z =z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z),P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*)\right] \\ & = P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z=z^*) \cdot \mathop{\min}\left[1,\frac{P(\mathcal Z = z \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z)}{P(\mathcal Z = z^* \mid \mathcal X)\cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*)}\right] \\ & = P(\mathcal Z = z^* \mid \mathcal X) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*) \cdot \alpha(z^*,z) \end{aligned} ​P(Z=z∣X)⋅Q(Z=z∗∣Z=z)⋅α(z,z∗)=P(Z=z∣X)⋅Q(Z=z∗∣Z=z)⋅min[1,P(Z=z∣X)⋅Q(Z=z∗∣Z=z)P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)​]=min[P(Z=z∣X)⋅Q(Z=z∗∣Z=z),P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)]=P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)⋅min[1,P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)P(Z=z∣X)⋅Q(Z=z∗∣Z=z)​]=P(Z=z∗∣X)⋅Q(Z=z∣Z=z∗)⋅α(z∗,z)​

接收率思路即MH采样算法(Metropolis Hastings)。
它的具体算法表示如下:

  • 从(0,1)均匀分布中进行采样;
    u ∼ U ( 0 , 1 ) u \sim \mathcal U(0,1) u∼U(0,1)
  • 以上一时刻采样结果 z ( t − 1 ) z^{(t-1)} z(t−1)确定的条件下,对状态转移矩阵当前时刻 z ( t ) z^{(t)} z(t)进行采样;
    此时,随机采出一个结果—— z ∗ z^* z∗,但不能直接作为 z ( t ) z^{(t)} z(t),需要满足后续的判断条件。
    z ∗ ∼ Q ( Z = z ∣ Z = z ( t − 1 ) ) z^* \sim \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^{(t-1)}) z∗∼Q(Z=z∣Z=z(t−1))
  • 计算 α \alpha α函数的具体结果:
    α = min ⁡ [ 1 , P ( Z = z ∗ ) ⋅ Q ( Z = z ∣ Z = z ∗ ) P ( Z = z ) ⋅ Q ( Z = z ∗ ∣ Z = z ) ] \alpha = \min \left[1, \frac{P(\mathcal Z = z^*) \cdot \mathcal Q(\mathcal Z = z \mid \mathcal Z = z^*)}{P(\mathcal Z = z) \cdot \mathcal Q(\mathcal Z = z^* \mid \mathcal Z = z)}\right] α=min[1,P(Z=z)⋅Q(Z=z∗∣Z=z)P(Z=z∗)⋅Q(Z=z∣Z=z∗)​]
  • 对 u u u和 α \alpha α结果进行如下对比:
    类似于‘拒绝采样’,从0-1均匀分布中采样的 u u u自身没有任何实际意义,它只是用来衡量 α \alpha α结果的性能。

    • 如果: u ≤ α → z ( t ) = z ∗ u \leq \alpha \to z^{(t)} = z^* u≤α→z(t)=z∗;
      存在 α \alpha α的概率接收 z ∗ z^* z∗样本。
    • 否则: z ( t ) = z ( t − 1 ) z^{(t)} = z^{(t-1)} z(t)=z(t−1)
      此次的采样被拒绝,依然使用上一时刻的样本结果 z ( t − 1 ) z^{(t-1)} z(t−1)作为本时刻的输出样本。这次迭代确实白跑~样本数量没有减少,下次迭代依然将 z ( t − 1 ) z^{(t-1)} z(t−1)作为条件,基于该条件的概率分布进行采样。
  • 最终会得到一系列样本:
    { z ( 1 ) , z ( 2 ) , ⋯ , z ( N ) } \{z^{(1)},z^{(2)},\cdots,z^{(N)}\} {z(1),z(2),⋯,z(N)}
    并最后通过上述样本点使用蒙特卡洛方法近似求解概率分布 P ( Z ∣ X ) P(\mathcal Z \mid \mathcal X) P(Z∣X)的期望结果:
    E Z ∣ X [ f ( Z ) ] = 1 N ∑ i = 1 N f ( z ( i ) ) \mathbb E_{\mathcal Z \mid \mathcal X} [f(\mathcal Z)] = \frac{1}{N} \sum_{i=1}^{N} f(z^{(i)}) EZ∣X​[f(Z)]=N1​i=1∑N​f(z(i))

下一节将介绍吉布斯采样算法(Gibbs)

相关参考:
机器学习-白板推导系列-蒙特卡洛方法3(Monte Carlo Method)-MH采样(Metropolis Hastings)

机器学习笔记之马尔可夫链蒙特卡洛方法(三)MH采样算法相关推荐

  1. 机器学习笔记之马尔可夫链蒙特卡洛方法(四)吉布斯采样

    机器学习笔记之马尔可夫链蒙特卡洛方法--吉布斯采样 引言 回顾:MH采样算法 基于马尔可夫链的采样方式 细致平衡原则与接收率 MH采样算法的弊端 吉布斯采样方法 吉布斯采样的采样过程 吉布斯采样的推导 ...

  2. 机器学习笔记马尔可夫链蒙特卡洛方法(二)马尔可夫链与平稳分布

    机器学习笔记之马尔可夫链蒙特卡洛方法--马尔可夫链与平稳分布 引言 回顾:蒙特卡洛方法 马尔可夫链与平稳分布 马尔可夫链 平稳分布 细致平衡 关于平稳分布的补充 马尔可夫链的本质 平稳分布的收敛性证明 ...

  3. 不用数学也能讲清贝叶斯理论的马尔可夫链蒙特卡洛方法?这篇文章做到了

    作者 | Ben Shaver 翻译 | 刘畅 编辑 | Donna 大多数时候,贝叶斯统计在结果在最好的情况下是魔法,在最糟糕时是一种完全主观的废话.在用到贝叶斯方法的理论体系中,马尔可夫链蒙特卡洛 ...

  4. 不用数学讲清马尔可夫链蒙特卡洛方法?

    翻译 | 刘畅 大多数时候,贝叶斯统计在结果在最好的情况下是魔法,在最糟糕时是一种完全主观的废话.在用到贝叶斯方法的理论体系中,马尔可夫链蒙特卡洛方法尤其神秘. 这篇文章将介绍马尔可夫链蒙特卡洛方法, ...

  5. AI算法连载04:数学基础之蒙特卡洛方法与MCMC采样

    相关文章: AI算法连载01:数学基础之线性代数 AI算法连载02:概率论基础 AI算法连载03:数学基础之数值计算 导语:不懂算法的工程师做不了AI,不懂算法的产品经理将把AI带入泥潭. 一.前言 ...

  6. 一份数学小白也能读懂的「马尔可夫链蒙特卡洛方法」入门指南

    文章来源:机器之心 在众多经典的贝叶斯方法中,马尔可夫链蒙特卡洛(MCMC)由于包含大量数学知识,且计算量很大,而显得格外特别.本文反其道而行之,试图通过通俗易懂且不包含数学语言的方法,帮助读者对 M ...

  7. 机器学习笔记之深度信念网络(三)贪心逐层预训练算法

    机器学习笔记之深度信念网络--贪心逐层预训练算法 引言 回顾:深度信念网络的结构表示 回顾: RBM \text{RBM} RBM叠加思想 贪心逐层预训练算法 引言 上一节介绍了深度信念网络模型的构建 ...

  8. 机器学习笔记之Sigmoid信念网络(二)醒眠算法

    机器学习笔记之Sigmoid信念网络--醒眠算法 引言 回顾 Sigmoid \text{Sigmoid} Sigmoid信念网络的模型表示 Sigmoid \text{Sigmoid} Sigmoi ...

  9. 马尔可夫链蒙特卡洛(一):Metropolis算法

    0. 引言 马尔可夫链蒙特卡洛(Markov Chain Monte Carlo,MCMC)是一类从复杂概率分布中进行采样的方法.Metropolis算法是严格意义上第一个MCMC算法,它于1953年 ...

最新文章

  1. Windows系统回顾之Windows NT
  2. PHP 项目中单独使用 Laravel Eloquent 查询语句来避免 SQL 注入
  3. 使用Jdom2将一个xml文件添加到另一个xml中
  4. windows10下载
  5. fatal error C1010: unexpected end of file while looking for precompiled head
  6. 百度SEO站长统计后台广告推送引流软件
  7. 学了阿里P8级架构师的7+1+1落地项目,转疯了!
  8. 现成的CA证书签发工具
  9. 相机模型与标定(十三)--鱼眼相机标定
  10. web开发中多线程下载文件
  11. 高德地图-根据IP定位显示当前所在城市
  12. html5 window.game,releasing html5 games for windows 8
  13. 汇总:各类手游渠道特点及选择方法
  14. BroadcastReceiver插件化
  15. pyltp的初始化报错:segmentor = Segmentor() # 初始化实例TypeError: __init__(): incompatible constructor argument
  16. Graphite 简介
  17. 认准了,就去做;不跟风,不动摇
  18. opencv里的Moments成员变量的理解
  19. php+美拍地址+解析,美拍视频的地址解析下载
  20. 美国福禄克公司于2021年1月重磅发布两款红外热像仪——TiS55+和TiS75+

热门文章

  1. 立创开源 | 基于ESP-01的桌面小彩灯
  2. 关于科技趋势和未来机会,这8本书告诉你答案
  3. 传奇开群服/公益服用什么服务器最好?
  4. 数位板电脑绘画网课盘点(手绘动漫课程排名)
  5. mysql405错误_mysql - 在框架内php调用某个方法, nginx 报 405错误 Status Code:405 Method Not Allowed...
  6. JVM 垃圾收集器 学习笔记(《深入理解java虚拟机》之六 垃圾收集)
  7. C++中拷贝构造、赋值构造的区别
  8. 『杭电1982』Kaitou Kid - The Phantom Thief (1)
  9. ISCC2016Basic Writeup
  10. ISCC2018 Misc WriteUp