机器学习笔记之概率图模型——信念传播(基于树结构)

  • 引言
    • 回顾:变量消去法及弊端
    • 信念传播
      • 基于树结构图的信念传播(无环)
    • 示例:使用信念传播求解边际概率分布(无环)

引言

上一节介绍了精确推断中的变量消去法,本节将针对变量消去法的弊端,介绍信念传播

回顾:变量消去法及弊端

变量消去法(Variable Elimination,VE)是概率图精确推断的基础思想,其本质是通过 乘法对加法的分配律 思想进行简化运算。
已知一个贝叶斯网络表示如下:

上述节点的联合概率分布P(i1,i2,i3,i4,i5)\mathcal P(i_1,i_2,i_3,i_4,i_5)P(i1​,i2​,i3​,i4​,i5​)表示如下:
P(i1,i2,i3,i4,i5)=∏k=15P(ik∣ipa(k))=P(i1)⋅P(i2∣i1)⋅P(i3∣i2)⋅P(i4∣i3)⋅P(i5∣i4)\begin{aligned} \mathcal P(i_1,i_2,i_3,i_4,i_5) & = \prod_{k=1}^5 \mathcal P(i_k \mid i_{pa(k)}) \\ & = \mathcal P(i_1) \cdot \mathcal P(i_2 \mid i_1) \cdot \mathcal P(i_3 \mid i_2) \cdot \mathcal P(i_4 \mid i_3) \cdot \mathcal P(i_5 \mid i_4) \end{aligned}P(i1​,i2​,i3​,i4​,i5​)​=k=1∏5​P(ik​∣ipa(k)​)=P(i1​)⋅P(i2​∣i1​)⋅P(i3​∣i2​)⋅P(i4​∣i3​)⋅P(i5​∣i4​)​
以i3,i5i_3,i_5i3​,i5​两个变量结点示例:

  • 变量结点i5i_5i5​的边缘概率分布表示如下:
    其中Pi1(i2)\mathcal P_{i_1}(i_2)Pi1​​(i2​)表示通过i1i_1i1​积分从而得到i2i_2i2​的边缘概率结果。
    P(i5)=∑i1,i2,i3,i4P(i1,i2,i3,i4,i5)=∑i1,i2,i3,i4P(i1)⋅P(i2∣i1)⋅P(i3∣i2)⋅P(i4∣i3)⋅P(i5∣i4)=∑i4P(i5∣i4)⋅∑i3P(i4∣i3)⋅∑i2P(i3∣i2)⋅∑i1P(i2∣i1)⋅P(i1)=∑i4P(i5∣i4)⋅∑i3P(i4∣i3)⋅∑i2P(i3∣i2)⋅Pi1(i2)=⋯=Pi4(i5)\begin{aligned} \mathcal P(i_5) & = \sum_{i_1,i_2,i_3,i_4} \mathcal P(i_1,i_2,i_3,i_4,i_5) \\ & = \sum_{i_1,i_2,i_3,i_4} \mathcal P(i_1) \cdot \mathcal P(i_2 \mid i_1) \cdot \mathcal P(i_3 \mid i_2) \cdot \mathcal P(i_4 \mid i_3) \cdot \mathcal P(i_5 \mid i_4) \\ & = \sum_{i_4} \mathcal P(i_5 \mid i_4) \cdot \sum_{i_3} \mathcal P(i_4 \mid i_3) \cdot \sum_{i_2} \mathcal P(i_3 \mid i_2) \cdot \sum_{i_1} \mathcal P(i_2 \mid i_1) \cdot \mathcal P(i_1) \\ & = \sum_{i_4} \mathcal P(i_5 \mid i_4) \cdot \sum_{i_3} \mathcal P(i_4 \mid i_3) \cdot \sum_{i_2} \mathcal P(i_3 \mid i_2) \cdot \mathcal P_{i_1}(i_2) \\ & = \cdots \\ & = \mathcal P_{i_4}(i_5) \end{aligned}P(i5​)​=i1​,i2​,i3​,i4​∑​P(i1​,i2​,i3​,i4​,i5​)=i1​,i2​,i3​,i4​∑​P(i1​)⋅P(i2​∣i1​)⋅P(i3​∣i2​)⋅P(i4​∣i3​)⋅P(i5​∣i4​)=i4​∑​P(i5​∣i4​)⋅i3​∑​P(i4​∣i3​)⋅i2​∑​P(i3​∣i2​)⋅i1​∑​P(i2​∣i1​)⋅P(i1​)=i4​∑​P(i5​∣i4​)⋅i3​∑​P(i4​∣i3​)⋅i2​∑​P(i3​∣i2​)⋅Pi1​​(i2​)=⋯=Pi4​​(i5​)​
    贝叶斯网络中,i5i_5i5​节点的计算顺序表示如下(蓝色箭头):

    这个操作和隐马尔可夫模型中的前向算法计算顺序相同,均是 从初始时刻出发,向目标时刻方向计算的过程
    不仅计算顺序相同,并且计算的操作也是非常近似的。即每一次迭代过程都需要对状态变量进行积分,从而转移到下一状态
    HMM模型前向算法(Forward Algorithm)迭代过程表示如下:
    αt+1(j)=∑itbj(ot+1)⋅aij⋅αt(i)\alpha_{t+1}(j) = \sum_{i_t} b_j(o_{t+1}) \cdot a_{ij} \cdot \alpha_t(i)αt+1​(j)=it​∑​bj​(ot+1​)⋅aij​⋅αt​(i)
    其中αt(i)\alpha_t(i)αt​(i)表示 ttt时刻之前所有观测变量o1,…,oto_1,\dots,o_to1​,…,ot​与ttt时刻状态变量iti_tit​的联合概率分布;aija_{ij}aij​表示状态转移矩阵A\mathcal AA的对应元素;bj(ot+1)b_j(o_{t+1})bj​(ot+1​)表示发射矩阵B\mathcal BB的对应元素;
    αt(i)=P(o1,⋯,ot,it=qi∣λ)λ=(π,A,B)\alpha_t(i) = \mathcal P(o_1,\cdots,o_t,i_t = q_i \mid \lambda) \quad \lambda = (\pi,\mathcal A,\mathcal B)αt​(i)=P(o1​,⋯,ot​,it​=qi​∣λ)λ=(π,A,B)

  • 如果求解中间结点,如变量结点i3i_3i3​的边缘概率分布表示如下:
    P(i3)=∑i1,i2,i4,i5P(i1,i2,i3,i4,i5)=∑i1,i2,i4,i5P(i1)⋅P(i2∣i1)⋅P(i3∣i2)⋅P(i4∣i3)⋅P(i5∣i4)=(∑i2P(i3∣i2)∑i1P(i1)⋅P(i2∣i1))⋅(∑i4P(i4∣i3)∑i5P(i5∣i4))\begin{aligned} \mathcal P(i_3) & = \sum_{i_1,i_2,i_4,i_5} \mathcal P(i_1,i_2,i_3,i_4,i_5) \\ & = \sum_{i_1,i_2,i_4,i_5} \mathcal P(i_1) \cdot \mathcal P(i_2 \mid i_1) \cdot \mathcal P(i_3 \mid i_2) \cdot \mathcal P(i_4 \mid i_3) \cdot \mathcal P(i_5 \mid i_4) \\ & = \left(\sum_{i_2} \mathcal P(i_3 \mid i_2)\sum_{i_1} \mathcal P(i_1) \cdot \mathcal P(i_2 \mid i_1)\right) \cdot \left(\sum_{i_4} \mathcal P(i_4 \mid i_3) \sum_{i_5} \mathcal P(i_5 \mid i_4)\right) \\ \end{aligned}P(i3​)​=i1​,i2​,i4​,i5​∑​P(i1​,i2​,i3​,i4​,i5​)=i1​,i2​,i4​,i5​∑​P(i1​)⋅P(i2​∣i1​)⋅P(i3​∣i2​)⋅P(i4​∣i3​)⋅P(i5​∣i4​)=(i2​∑​P(i3​∣i2​)i1​∑​P(i1​)⋅P(i2​∣i1​))⋅(i4​∑​P(i4​∣i3​)i5​∑​P(i5​∣i4​))​
    观察上式:等号左侧表示Pi2(i3)\mathcal P_{i_2}(i_3)Pi2​​(i3​);与右括号进行合并有:
    需要注意的点:‘右括号’的项是对i4,i5i_4,i_5i4​,i5​进行积分。
    由于i3,i4,i5i_3,i_4,i_5i3​,i4​,i5​三个结点之间是‘顺序结构’,因此有P(i5∣i4,i3)=P(i5∣i4)\mathcal P(i_5 \mid i_4,i_3) = \mathcal P(i_5 \mid i_4)P(i5​∣i4​,i3​)=P(i5​∣i4​)。
    P(i3)=Pi2(i3)∑i4P(i4∣i3)⋅∑i5P(i5∣i4)=Pi2(i3)⋅∑i4,i5P(i4∣i3)⋅P(i5∣i4,i3)=∑i4,i5P(i5,i4∣i3)⋅Pi4(i3)=∑i4,i5P(i3,i4,i5)=Pi4,i5(i3)\begin{aligned} \mathcal P(i_3) & = \mathcal P_{i_2}(i_3) \sum_{i_4} \mathcal P(i_4 \mid i_3) \cdot \sum_{i_5} \mathcal P(i_5 \mid i_4) \\ & = \mathcal P_{i_2}(i_3) \cdot \sum_{i_4,i_5} \mathcal P(i_4 \mid i_3) \cdot \mathcal P(i_5 \mid i_4,i_3) \\ & = \sum_{i_4,i_5} \mathcal P(i_5,i_4 \mid i_3) \cdot \mathcal P_{i_4}(i_3)\\ & = \sum_{i_4,i_5} \mathcal P(i_3,i_4,i_5) \\ & = \mathcal P_{i_4,i_5}(i_3) \end{aligned}P(i3​)​=Pi2​​(i3​)i4​∑​P(i4​∣i3​)⋅i5​∑​P(i5​∣i4​)=Pi2​​(i3​)⋅i4​,i5​∑​P(i4​∣i3​)⋅P(i5​∣i4​,i3​)=i4​,i5​∑​P(i5​,i4​∣i3​)⋅Pi4​​(i3​)=i4​,i5​∑​P(i3​,i4​,i5​)=Pi4​,i5​​(i3​)​
    当然,也可以将∑i4P(i4∣i3)\sum_{i_4} \mathcal P(i_4 \mid i_3)∑i4​​P(i4​∣i3​),∑i5P(i5∣i4)\sum_{i_5} \mathcal P(i_5 \mid i_4)∑i5​​P(i5​∣i4​)均看做1(条件概率积分):
    Pi2(i3)∑i4P(i4∣i3)⋅∑i5P(i5∣i4)=Pi2(i3)⋅1⋅1=Pi2(i3)\mathcal P_{i_2}(i_3) \sum_{i_4} \mathcal P(i_4 \mid i_3) \cdot \sum_{i_5} \mathcal P(i_5 \mid i_4) = \mathcal P_{i_2}(i_3) \cdot 1\cdot 1 = \mathcal P_{i_2}(i_3)Pi2​​(i3​)i4​∑​P(i4​∣i3​)⋅i5​∑​P(i5​∣i4​)=Pi2​​(i3​)⋅1⋅1=Pi2​​(i3​)
    贝叶斯网络中,i3i_3i3​结点的计算顺序表示如下(红色箭头):
    准确的说,这个‘红色箭头’是基于‘无向图’的表示,而有向图只需要到达i4i_4i4​结点即可停止了,因为i5⊥i3∣i4i_5 \perp i_3\mid i_4i5​⊥i3​∣i4​,因此有∑i5P(i5∣i4)=1\sum_{i_5}\mathcal P(i_5 \mid i_4) = 1∑i5​​P(i5​∣i4​)=1

    这种方法称之为前向-后向算法(Forward-Backward Algorithm),通过观察发现,在计算变量结点i5i_5i5​的概率P(i5)\mathcal P(i_5)P(i5​)和变量结点i3i_3i3​的概率P(i3)\mathcal P(i_3)P(i3​)过程中,实际上对所有结点均执行了重复计算

这也说明了变量消除法的弊端:在每次计算新的结点变量时,需要运行许多重复步骤

信念传播

基于变量消去法的弊端,信念传播的朴素思想在于:将结点计算的中间过程固定住,采用动态规划的方法,在求解某一结点的边缘概率分布时,直接寻找到达该结点的路径,并通过查询的方式查找出路径上各节点的计算过程

基于树结构图的信念传播(无环)

无论是贝叶斯网络还是马尔可夫随机场,都可以使用信念传播进行计算。以无向的树形结构图为例,介绍信念传播的计算过程:
树形图对应‘贝叶斯网络’中的‘有向无环图’。

上述图结构中变量结点的联合概率分布 表示如下:
该图中一共包含3个最大团,分别是{i1,i3},{i2,i3},{i4,i3}\{i_1,i_3\},\{i_2,i_3\},\{i_4,i_3\}{i1​,i3​},{i2​,i3​},{i4​,i3​}
P(i1,i2,i3,i4)=1Z[ψi1i3(i1,i3)⋅ψi2i3(i2,i3)⋅ψi3i4(i3,i4)]\begin{aligned} \mathcal P(i_1,i_2,i_3,i_4) = \frac{1}{\mathcal Z} \left[\psi_{i_1i_3}(i_1,i_3) \cdot \psi_{i_2i_3}(i_2,i_3) \cdot \psi_{i_3i_4}(i_3,i_4)\right] \end{aligned}P(i1​,i2​,i3​,i4​)=Z1​[ψi1​i3​​(i1​,i3​)⋅ψi2​i3​​(i2​,i3​)⋅ψi3​i4​​(i3​,i4​)]​
如果求解i4i_4i4​结点变量的边缘概率P(i4)\mathcal P(i_4)P(i4​),这意味着需要将剩余的三个变量结点i1,i2,i3i_1,i_2,i_3i1​,i2​,i3​消掉。从消息传播的角度观察消息传播的方向(变量消去的顺序)可表示为b1,b2,b3b_1,b_2,b_3b1​,b2​,b3​(蓝色箭头)

同理,如计算变量结点i2i_2i2​的边缘概率分布P(i2)\mathcal P(i_2)P(i2​),剩余结点的消去顺序为:b1,r3,r2b_1,r_3,r_2b1​,r3​,r2​。
为了简化运算,将求解其他变量结点,再积分 的操作简化为 求解各变量结点的关联关系并存储起来,在计算过程中直接使用即可
结点消去顺序的角度求解变量结点i4i_4i4​的边缘概率分布P(i4)\mathcal P(i_4)P(i4​)
P(i4)=∑i1,i2,i3P(i1,i2,i3,i4)\mathcal P(i_4) = \sum_{i_1,i_2,i_3} \mathcal P(i_1,i_2,i_3,i_4)P(i4​)=i1​,i2​,i3​∑​P(i1​,i2​,i3​,i4​)
基于图结构,消去顺序为i1,i2,i3i_1,i_2,i_3i1​,i2​,i3​或者i2,i1,i3i_2,i_1,i_3i2​,i1​,i3​:

  • 首先消去i2i_2i2​,与i2i_2i2​相关联的结点是i3i_3i3​(b2b_2b2​方向):
    m2→3(i3)m_{2 \to 3}(i_3)m2→3​(i3​)记作‘将i2i_2i2​积分掉后,关于i3i_3i3​的势函数结果。后面同理’
    ∑i2ψ23(i2,i3)=m2→3(i3)\sum_{i_2} \psi_{23}(i_2,i_3) = m_{2 \to 3}(i_3)i2​∑​ψ23​(i2​,i3​)=m2→3​(i3​)
  • 消去i1i_1i1​,与i1i_1i1​相关的结点是i3i_3i3​(b1b_1b1​方向):
    ∑i1ψ13(i1,i3)=m1→3(i3)\sum_{i_1} \psi_{13}(i_1,i_3) = m_{1 \to 3}(i_3)i1​∑​ψ13​(i1​,i3​)=m1→3​(i3​)
  • 消去i3i_3i3​,与i3i_3i3​相关的点是i1,i2,i4i_1,i_2,i_4i1​,i2​,i4​,基于前面两个结点变量的积分结果,i3i_3i3​积分结果表示如下(多一个b3b_3b3​方向):
    m3→4(i4)=∑i3ψ34(i3,i4)⋅∑i1ψ13(i1,i3)⋅∑i2ψ23(i2,i3)=∑i3ψ34(i3,i4)⋅m2→3(i3)⋅m1→3(i3)m_{3 \to 4}(i_4) = \sum_{i_3}\psi_{34}(i_3,i_4) \cdot \sum_{i_1} \psi_{13}(i_1,i_3) \cdot \sum_{i_2} \psi_{23}(i_2,i_3) = \sum_{i_3}\psi_{34}(i_3,i_4) \cdot m_{2 \to 3}(i_3) \cdot m_{1 \to 3}(i_3)m3→4​(i4​)=i3​∑​ψ34​(i3​,i4​)⋅i1​∑​ψ13​(i1​,i3​)⋅i2​∑​ψ23​(i2​,i3​)=i3​∑​ψ34​(i3​,i4​)⋅m2→3​(i3​)⋅m1→3​(i3​)
    在信念传播算法中,结点的边际分布(如P(i4)\mathcal P(i_4)P(i4​))正比于它所接收的消息的乘积。由于结点i4i_4i4​在图中只与i3i_3i3​存在直接相连的边,因此P(i4)\mathcal P(i_4)P(i4​)有:
    P(i4)∝m3→4(i4)\mathcal P(i_4) \propto m_{3 \to 4}(i_4)P(i4​)∝m3→4​(i4​)

经过整理,P(i4)\mathcal P(i_4)P(i4​)可表示如下:
P(i4)∝∑i3ψ34(i3,i4)⋅m2→3(i3)⋅m1→3(i3)\mathcal P(i_4) \propto \sum_{i_3} \psi_{34}(i_3,i_4) \cdot m_{2 \to 3}(i_3) \cdot m_{1 \to 3}(i_3)P(i4​)∝i3​∑​ψ34​(i3​,i4​)⋅m2→3​(i3​)⋅m1→3​(i3​)
关于信念传播的通式可表示如下:
假设给定无环图结构,求解某变量结点P(xi)\mathcal P(x_i)P(xi​)的边缘概率分布:

  • 图结构中的所有结点开始向变量结点xix_ixi​方向传递消息,结点与结点之间的消息传递方式 表示为:
    其中jjjkkk的某个临接变量,将其他结点的消息传递给结点jjj,最后通过结点jjj传递给结点kkk;
    其中n(i)n(i)n(i)表示变量结点xix_ixi​的临接变量集合。
    mj→k(xk)=∑xjψjk(xj,xk)⋅∏l∈n(i),l≠kml→j(xj)m_{j \to k}(x_k) = \sum_{x_j}\psi_{jk}(x_j,x_k) \cdot \prod_{l \in n(i),l \neq k} m_{l \to j}(x_j)mj→k​(xk​)=xj​∑​ψjk​(xj​,xk​)⋅l∈n(i),l=k∏​ml→j​(xj​)
  • 待求解节点的边际分布与其临接变量接收结果的乘积成正比:
    P(xi)∝∏k∈n(i)mk→i(xi)\mathcal P(x_i) \propto \prod_{k \in n(i)} m_{k \to i}(x_i)P(xi​)∝k∈n(i)∏​mk→i​(xi​)

示例:使用信念传播求解边际概率分布(无环)

已知如下无向图,求解i3i_3i3​的边际概率分布P(i3)\mathcal P(i_3)P(i3​):
由于是无环图,因此最大团中结点数量 = 2

  • 既然求解i3i_3i3​的边际概率分布P(i3)\mathcal P(i_3)P(i3​),首先观察变量结点i3i_3i3​的临接变量结点有i1,i2,i4i_1,i_2,i_4i1​,i2​,i4​:

    • 表示出变量结点i1,i2,i4i_1,i_2,i_4i1​,i2​,i4​向i3i_3i3​的接收消息
      m1→3(i3),m2→3(i3),m4→3(i3)m_{1 \to 3}(i_3),m_{2 \to 3}(i_3),m_{4 \to 3}(i_3)m1→3​(i3​),m2→3​(i3​),m4→3​(i3​)
    • 边际概率分布P(i3)\mathcal P(i_3)P(i3​)可表示为:
      P(i4)∝m1→3(i3)⋅m2→3(i3)⋅m4→3(i3)\mathcal P(i_4) \propto m_{1 \to 3}(i_3) \cdot m_{2 \to 3}(i_3) \cdot m_{4 \to 3}(i_3)P(i4​)∝m1→3​(i3​)⋅m2→3​(i3​)⋅m4→3​(i3​)
  • 首先观察发送消息m4→3(i3)m_{4 \to 3}(i_3)m4→3​(i3​)的变量结点i4i_4i4​,除去i3i_3i3​结点外无其他结点与其相连,因此结点i3i_3i3​从i4i_4i4​方向接收的消息只有i4i_4i4​结点一个
    m4→3(i3)=∑i4ψ43(i4,i3)m_{4 \to 3}(i_3) = \sum_{i_4}\psi_{43}(i_4,i_3)m4→3​(i3​)=i4​∑​ψ43​(i4​,i3​)

  • 观察发送消息m1→3(i3)m_{1 \to 3}(i_3)m1→3​(i3​)的变量结点i1i_1i1​,除去i3i_3i3​结点外还有i6,i7i_6,i_7i6​,i7​与i1i_1i1​相连,因此结点i1i_1i1​接收的信息可表示为
    m6→1(i1)⋅m7→1(i1)=∑i6ψ61(i6,i1)⋅∑i7ψ71(i7,i1)m_{6 \to 1}(i_1) \cdot m_{7 \to 1}(i_1) = \sum_{i_6} \psi_{61}(i_6,i_1) \cdot \sum_{i_7} \psi_{71}(i_7,i_1)m6→1​(i1​)⋅m7→1​(i1​)=i6​∑​ψ61​(i6​,i1​)⋅i7​∑​ψ71​(i7​,i1​)
    从而i3i_3i3​从i1i_1i1​方向接收的消息m1→3(i3)m_{1 \to 3}(i_3)m1→3​(i3​)可表示为:
    m1→3(i3)=∑i1ψ13(i1,i3)⋅m6→1(i1)⋅m7→1(i1)=∑i1ψ13(i1,i3)∑i6ψ61(i6,i1)∑i7ψ71(i7,i1)\begin{aligned} m_{1 \to 3}(i_3) & = \sum_{i_1} \psi_{13}(i_1,i_3) \cdot m_{6 \to 1}(i_1) \cdot m_{7 \to 1}(i_1) \\ & = \sum_{i_1} \psi_{13}(i_1,i_3) \sum_{i_6} \psi_{61}(i_6,i_1) \sum_{i_7} \psi_{71}(i_7,i_1) \end{aligned}m1→3​(i3​)​=i1​∑​ψ13​(i1​,i3​)⋅m6→1​(i1​)⋅m7→1​(i1​)=i1​∑​ψ13​(i1​,i3​)i6​∑​ψ61​(i6​,i1​)i7​∑​ψ71​(i7​,i1​)​

  • 同理,观察发送消息m2→3(i3)m_{2 \to 3}(i_3)m2→3​(i3​)的变量结点i2i_2i2​,除去i3i_3i3​结点外还有i8,i9i_8,i_9i8​,i9​与i2i_2i2​相连,因此结点i2i_2i2​接收的信息可表示为
    m8→2(i2)⋅m9→2(i2)=∑i8ψ82(i8,i2)⋅∑i9ψ92(i9,i2)m_{8 \to 2}(i_2) \cdot m_{9\to 2}(i_2) = \sum_{i_8} \psi_{82}(i_8,i_2) \cdot \sum_{i_9} \psi_{92}(i_9,i_2)m8→2​(i2​)⋅m9→2​(i2​)=i8​∑​ψ82​(i8​,i2​)⋅i9​∑​ψ92​(i9​,i2​)
    从而i3i_3i3​从i2i_2i2​方向接收的消息m2→3(i3)m_{2 \to 3}(i_3)m2→3​(i3​)可表示为:
    m2→3(i3)=∑i2ψ23(i2,i3)⋅m8→2(i2)⋅m9→2(i2)=∑i2ψ23(i2,i3)∑i8ψ82(i8,i2)∑i9ψ92(i9,i2)\begin{aligned} m_{2 \to 3}(i_3) & = \sum_{i_2} \psi_{23}(i_2,i_3) \cdot m_{8 \to 2}(i_2) \cdot m_{9\to 2}(i_2) \\ & = \sum_{i_2} \psi_{23}(i_2,i_3) \sum_{i_8} \psi_{82}(i_8,i_2)\sum_{i_9} \psi_{92}(i_9,i_2) \end{aligned}m2→3​(i3​)​=i2​∑​ψ23​(i2​,i3​)⋅m8→2​(i2​)⋅m9→2​(i2​)=i2​∑​ψ23​(i2​,i3​)i8​∑​ψ82​(i8​,i2​)i9​∑​ψ92​(i9​,i2​)​

  • 最终,P(i4)\mathcal P(i_4)P(i4​)可表示为:
    P(i4)∝m1→3(i3)⋅m2→3(i3)⋅m4→3(i3)=[∑i1ψ13(i1,i3)∑i6ψ61(i6,i1)∑i7ψ71(i7,i1)]⋅[∑i2ψ23(i2,i3)∑i8ψ82(i8,i2)∑i9ψ92(i9,i2)]⋅∑i4ψ43(i4,i3)\begin{aligned} \mathcal P(i_4) & \propto m_{1 \to 3}(i_3) \cdot m_{2 \to 3}(i_3) \cdot m_{4 \to 3}(i_3) \\ & = \left[\sum_{i_1} \psi_{13}(i_1,i_3) \sum_{i_6} \psi_{61}(i_6,i_1) \sum_{i_7} \psi_{71}(i_7,i_1)\right] \cdot \left[\sum_{i_2} \psi_{23}(i_2,i_3) \sum_{i_8} \psi_{82}(i_8,i_2)\sum_{i_9} \psi_{92}(i_9,i_2)\right] \cdot \sum_{i_4}\psi_{43}(i_4,i_3) \end{aligned}P(i4​)​∝m1→3​(i3​)⋅m2→3​(i3​)⋅m4→3​(i3​)=[i1​∑​ψ13​(i1​,i3​)i6​∑​ψ61​(i6​,i1​)i7​∑​ψ71​(i7​,i1​)]⋅[i2​∑​ψ23​(i2​,i3​)i8​∑​ψ82​(i8​,i2​)i9​∑​ψ92​(i9​,i2​)]⋅i4​∑​ψ43​(i4​,i3​)​

下一节将介绍最大乘积算法(Max-Product Algorithm)

相关参考:
机器学习-周志华著
机器学习-概率图模型10-推断Inference-Belief Propagation(1)

机器学习笔记之概率图模型(八)信念传播(Belief Propagation,BP)(基于树结构)相关推荐

  1. 机器学习笔记之概率图模型(六)推断基本介绍

    机器学习笔记之概率图模型--推断的基本介绍 引言 回顾:贝叶斯学派与推断 推断的系统介绍 场景构建 推断的任务 推断方法介绍 回顾:隐马尔可夫模型中的推断问题 引言 前面部分分别介绍了贝叶斯网络(Ba ...

  2. 机器学习笔记之概率图模型(一)背景介绍

    机器学习笔记之概率图模型--背景介绍 引言 背景介绍 联合概率分布的求解困境 条件独立性假设 概率图的分类 总结 引言 从本节开始将介绍概率图模型. 背景介绍 概率图模型(Probabilistic ...

  3. 机器学习笔记之概率图模型(十)因子图

    机器学习笔记之概率图模型--因子图 引言 回顾:图结构相关思想 因子图 因子图的特点 引言 本节针对精确推断之变量消去法中出现的存在环结构概率图的情况,介绍因子图(Factor Graph),其主要将 ...

  4. 机器学习笔记之概率图模型(四)基于贝叶斯网络的模型概述

    机器学习笔记之概率图模型--基于贝叶斯网络的模型概述 引言 基于贝叶斯网络的模型 场景构建 朴素贝叶斯分类器 混合模型 基于时间变化的模型 特征是连续型随机变量的贝叶斯网络 动态概率图模型 总结 引言 ...

  5. 机器学习笔记:概率图模型

    公众号关注 "视学算法" 设为 "星标",DLCV消息即可送达! 来自 | 知乎 作者丨苏一 来源丨https://zhuanlan.zhihu.com/p/5 ...

  6. 概率图模型中信念传播

    和大家分享一个讲的比较好的博客: https://blog.csdn.net/qq_23947237/article/details/78389188 分成不用系列进行讲解,很细,写的很明白,很适合刚 ...

  7. 机器学习-白板推导-系列(九)笔记:概率图模型: 贝叶斯网络/马尔可夫随机场/推断/道德图/因子图

    文章目录 0 笔记说明 1 背景介绍 1.1 概率公式 1.2 概率图简介 1.2.1 表示 1.2.2 推断 1.2.3 学习 1.2.4 决策 1.3 图 2 贝叶斯网络 2.1 条件独立性 2. ...

  8. 【07】概率图推断之信念传播

    概率图推断之信念传播 文章目录 将变量消除视为信息传递 信息传递算法 加总乘积信息传递 因子树上的加总乘积信息传递 最大乘积信息传递 总结 在<概率图推断之变量消除算法>中,我们讲了变量消 ...

  9. 【机器学习系列】概率图模型第三讲:深入浅出无向图中的条件独立性和因子分解

    作者:CHEONG 公众号:AI机器学习与知识图谱 研究方向:自然语言处理与知识图谱 阅读本文之前,先注意一下两点: 1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文 ...

  10. 机器学习笔记(二十八):高斯核函数

    凌云时刻 · 技术 导读:核函数是机器学习算法中一个重要的概念.简单来讲,核函数就是样本数据点的转换函数.这一节我们来看看应用非常广泛的一个核函数,高斯核函数. 作者 | 计缘 来源 | 凌云时刻(微 ...

最新文章

  1. 解决Failed to execute goal org.apache.maven.plugins
  2. 026_JavaScript数组排序
  3. Java Web开发Tomcat中三种部署项目的方法
  4. 微信小程序 获取用户信息并保存登录状态
  5. 无代码iVX编程实现简单魂斗罗
  6. SpringBoot安装和创建简单的Web应用
  7. 解决:Google代码achartengine曲线代码报错问题(转)
  8. go token验证_golang jwt+token验证的实现
  9. python滑动手机屏幕_appium+python自动化24-滑动方法封装(swipe)
  10. 单独的REST JSON API服务器和客户端? [关闭]
  11. 一个前端妹子的悲欢编程之路
  12. matlab生成的图显示数据类型,matlab中数据类型及图像显示
  13. java svn 创建分支_Eclipse下svn的创建分支/合并/切换使用
  14. 遥感影像中常用的目标检测数据集
  15. 取消Word自动首字母大写步骤
  16. Scikit-learn的六大功能
  17. js 编写一个程序实现统计一串字符串中的英文小写字母个数!
  18. 算法:经典leetcode算法题解
  19. 计算机毕业设计(38)java毕设作品之餐厅座位预订系统
  20. java实现pdf转为word

热门文章

  1. Matlab之双坐标轴绘制plotyy
  2. Java随机生成加减乘除运算,并记录结果
  3. 如何使用谷歌“以图找图”图片搜索功能
  4. php上传504,nginx+php设置大文件请求上传(502及504问题处理)
  5. 中央银行会计核算数据集中系统(ACS系统)
  6. 关于AFNetworking上传图片问题
  7. [研究笔记] Travis CI 使用介绍
  8. html和js制作个人所得税表格,用JS编写个人所得税计算器
  9. 不重启linux服务器禁用U盘,如何在Linux服务器上禁用U盘?
  10. IE浏览器插件ActiveX的制作以及Google 调用此插件