文章目录

  • 概率图模型的综合叙述:
  • 马尔科夫随机场综述:
  • 马尔科夫随机场定义:
  • MRF的因式分解:
  • 一个简单的例子:

概率图模型的综合叙述:

特征函数便是图中的conditional。对图简单的说明,综合概述Naive Bayes,Logistic Regression,HMM,Linear-chain CRF之间的关系。Naive Bayes经过条件参数的加入即为Logistic Regression,同时这两者经过序列化即特征函数加入了对相邻状态之间的判断即变为HMM和Linear-chain CRF,最后经过广义图模型的扩展变为最后两者。

马尔科夫随机场综述:

马尔可夫网络(Markov network),PGM(概率图模型)中的无向图模型,也即马尔可夫随机场( Markov random Field,MRF),是一个可以由无向图表示的联合概率分布,属于生成式模型。与“马尔可夫”有关的随机过程或概率模型般都是基于马尔可夫假设的,也即下一个时间点的状态只与当前的状态有关系,换言之,决定你未来状态的不是你的过去而是你现在的状态。

马尔科夫随机场定义:

马尔可夫网络可用于表示变量之间的依赖关系,与贝叶斯网络不同的是,它可以表示贝叶斯网络无法表示的一些依赖关系,比如循环依赖:另一方面,它不能表示贝叶斯网络能够表示的某些关系,比如推导关系。

首先学习一下随机场的概念,其定义为:当给每一个位置中按照某种分布随机赋予相空间的一个值之后,其全体就叫做随机场。其中两个重要的概念是“位置”和“相空间”。“位置”好比是一亩亩农田“相空间”好比是种的各种庄稼。我们可以给不同的地种上不同的庄稼,这就好比给随机场的每个“位置”,赋予相空间里不同的值。所以,俗气点说,随机场就是在哪块地里种什么庄稼的事情。马尔可夫随机场是具有马尔可夫特性的随机场。拿种地打比方,如果任何一块地里种的庄稼的种类仅仅与它邻近的地里种的庄稼的种类有关,与其它地方的庄稼的种类无关,那么这些地里种的庄稼的集合,就是一个马尔可夫随机场。

图是由结点及连接结点的边组成的集合,结点和边的集合分别记作 V V V和 E E E,图记作 G = ( V , E ) G=(V,E) G=(V,E)。无向图是指边没有方向的图。PGM就是用图表示概率分布,其中一个结点表示一个随机变量,如果两个随机之间有依赖关系就用一条边将它们连接起来。

假设有联合概率分布 P ( Y ) P(Y) P(Y), Y = { y 1 , y 2 , … , y n } Y=\{y_1,y_2,\ldots,y_n\} Y={y1​,y2​,…,yn​}是一组随机变量。由无向图 G = ( V , E ) G=(V,E) G=(V,E) 表示概率分布 P ( Y ) P(Y) P(Y),即在图 G G G中,结点 v ∈ V v\in V v∈V表示一个随机变量 Y Y Y,边 e ∈ E e\in E e∈E表示随机变量之间的概率依赖关系。

首先,定义三个重要的概念

1、成对马尔可夫性:假设 u u u和 v v v分别是无向图 G G G中任意两个没有边连接的结点,结点u和v对应的随机变量分别是 Y u Y_u Yu​和 Y y Y_y Yy​,其他所有结点集合为 O O O,对应的随机变量集合为 Y o Y_o Yo​,据此定义,成对马尔可夫性是指给定 Y o Y_o Yo​的条件下 Y u Y_u Yu​和 Y v Y_v Yv​是条件独立的,即: P ( ( Y u , Y v ) ∣ Y o ) = P ( Y u ∣ Y o ) P ( Y v ∣ Y o ) P((Y_u,Y_v)|Y_o)=P(Y_u|Y_o)P(Y_v|Y_o) P((Yu​,Yv​)∣Yo​)=P(Yu​∣Yo​)P(Yv​∣Yo​)

2、局部马尔可夫性:假设 v a n y ∈ V v_{any}\in V vany​∈V是无向图 G G G中任意一个结点, W W W是与 v a n y v_{any} vany​有边连接的所有结点的集合, O O O是除 v a n y v_{any} vany​和 W W W以外的所有结点的集合,据此定义,局部马尔可夫性是指在给定 Y W Y_W YW​的条件下 Y v a n y Y_{v{any}} Yvany​和 Y O Y_O YO​是条件独立的,即
在 W 情 况 下 现 在 Y v a n y , Y O 的 可 能 P ( ( Y v a n y , Y O ) ∣ Y W ) = P ( Y v a n y ∣ Y W ) P ( Y O ∣ Y W ) 用 在 W , Y O 情 况 下 现 在 Y v a n y 的 可 能 表 示 = = = 在 W 情 况 下 现 在 Y v a n y , Y O 的 可 能 ∵ P ( ( Y v a n y , Y O ) ∣ Y W ) = P ( Y v a n y ∣ ( Y O , Y w ) ) P ( Y O ∣ Y w ) w h e n P ( Y O ∣ Y w ) > 0 ∴ P ( Y v a n y ∣ ( Y O , Y W ) ) = P ( Y v a n y ∣ Y W ) \begin{array}{c} 在W情况下现在Y_{v_{any}},Y_O的可能 \\{P\left((Y_{v_ {any}}, Y_{O}) | Y_{W}\right)=P\left(Y_{v_{any}} | Y_{W}\right) P\left(Y_{O} | Y_{W}\right)} \\用在W,Y_O情况下现在Y_{v_{any}}的可能表示===在W情况下现在Y_{v_{any}},Y_O的可能 \\ \because P\left((Y_{v_{any}}, Y_{O})| Y_{W}\right)=P\left(Y_{v_{any}} |( Y_{O}, Y_{w})\right) P\left(Y_{O} | Y_{w}\right) \\ when \quad P\left(Y_{O} | Y_{w}\right)>0 \\ \therefore { P\left(Y_{v_{any}} | (Y_{O}, Y_{W})\right)=P\left(Y_{v_{any}} | Y_{W}\right)} \end{array} 在W情况下现在Yvany​​,YO​的可能P((Yvany​​,YO​)∣YW​)=P(Yvany​​∣YW​)P(YO​∣YW​)用在W,YO​情况下现在Yvany​​的可能表示===在W情况下现在Yvany​​,YO​的可能∵P((Yvany​​,YO​)∣YW​)=P(Yvany​​∣(YO​,Yw​))P(YO​∣Yw​)whenP(YO​∣Yw​)>0∴P(Yvany​​∣(YO​,YW​))=P(Yvany​​∣YW​)​

局部马尔科夫示意图:

3、全局马尔可夫性:假设结点集合 A A A和 B B B是无向图 G G G中被结点集合 C C C分开的任意结点集合,如下图所示,据此定义,全局马尔可夫性是指在给定 Y C Y_C YC​的条件下 Y A Y_A YA​和 Y B Y_B YB​是条件独立的,即:

P ( ( Y A , Y B ) ∣ Y C ) = P ( Y A ∣ Y C ) P ( Y B ∣ Y C ) P\left((Y_{A}, Y_{B} )| Y_{C}\right)=P\left(Y_{A} | Y_{C}\right) P\left(Y_{B} | Y_{C}\right) P((YA​,YB​)∣YC​)=P(YA​∣YC​)P(YB​∣YC​)

上述成对的、局部的、全局的马尔可夫性定义是等价的。有了上面的基础,我们就可以定义概率无向图模型:设有联合概率分布 P ( Y ) P(Y) P(Y),由无向图 G = ( V , E ) G=(V,E) G=(V,E)表示,在图 G G G中,结点表示随机变量,边表示随机变量之间的依赖关系;如果联合概率分布 P ( Y ) P(Y) P(Y)满足成对的、局部的或全局的马尔可夫性,就称此联合概率分布为概率无向图模型,或马尔可夫随机场。

MRF的因式分解:

首先学习团、极大团和最大团的概念:无向图 G G G中任何两个结点均有边连接的结点子集称为团;若 C C C是无向图 G G G的一个团,并且不能再加进任何一个 G G G的结点使其成为一个更大的团,则称此 C C C为极大团:在所有极大团中,结点最多的称为最大团。三个概念之间是层层递进关系,构成一个团的条件是集合中所有结点必须两两之间有边连接,因此 N N N个点的团有 N ( N − 1 ) 2 \frac{N(N-1)}{2} 2N(N−1)​条边,就好比一个团队中所有人必须互相认识:极大团首先是团,然后其所有结点不能被更大的团所包含;最大团首先是极大团,然后所含结点数量最多。举个例子,下图表示一个由4个结点组成的无向图,图中由两个结点组成的团有5个: { Y 1 , Y 2 } , { Y 1 , Y 3 } , { Y 2 , Y 3 } , { Y 3 , Y 4 } , { Y 2 , Y 4 } \{Y_1,Y_2\},\{Y_1,Y_3\},\{Y_2,Y_3\},\{Y_3,Y_4\},\{Y_2,Y_4\} {Y1​,Y2​},{Y1​,Y3​},{Y2​,Y3​},{Y3​,Y4​},{Y2​,Y4​} 。有2个极大团: { Y 1 , Y 2 , Y 3 } \{Y_1,Y_2,Y_3\} {Y1​,Y2​,Y3​}和 { Y 2 , Y 3 , Y 4 } \{Y_2,Y_3,Y_4\} {Y2​,Y3​,Y4​}。特别地,所有极大团恰好全部是最大团。由于 Y 1 Y_1 Y1​和 Y 4 Y_4 Y4​没有边连接,因此 { Y 1 , Y 2 , Y 3 , Y 4 } \{Y_1,Y_2,Y_3,Y_4\} {Y1​,Y2​,Y3​,Y4​}不是一个团。

在MRF中,多个变量之间的联合概率分布能基于团分解为多个因子的乘积,每个因子仅与一个团相关,称为MRF的因式分解。对于 n n n个变量, y = { y 1 , y 2 , … , y n } y=\{y_1,y_2,\ldots,y_n\} y={y1​,y2​,…,yn​},假设无向图 G G G中所有团构成集合 C C C,与团$Q\in C 对 应 的 变 量 集 合 为 对应的变量集合为 对应的变量集合为Y_Q , 则 M R F 的 联 合 概 率 分 布 ,则MRF的联合概率分布 ,则MRF的联合概率分布P(Y)$定义为:

P ( Y ) = P ( y 1 , … , y n ) = 1 Z ∏ g ∈ C ψ Q ( Y θ ) P(Y)=P\left(y_{1}, \ldots, y_{n}\right)=\frac{1}{Z} \prod_{g \in C} \psi_{Q}\left(Y_{\theta}\right) P(Y)=P(y1​,…,yn​)=Z1​∏g∈C​ψQ​(Yθ​)

其中 ψ Q \psi_{Q} ψQ​为与团 Q Q Q对应的势函数,用于对团Q中的变量关系进行建模, Z Z Z为规范化因子,以确保 P ( Y ) P(Y) P(Y)构成一个概率分布,其表达式为

Z = ∑ Y ∏ Q ∈ C ψ Q ( Y Q ) = ∑ y 1 , … , y n ∏ θ ∈ C ψ θ ( Y θ ) Z=\sum_{Y} \prod_{Q \in C} \psi_{Q}\left(Y_{Q}\right)=\sum_{y_{1}, \ldots, y_{n} }\prod_{\theta \in C} \psi_{\theta}\left(Y_{\theta}\right) Z=∑Y​∏Q∈C​ψQ​(YQ​)=∑y1​,…,yn​​∏θ∈C​ψθ​(Yθ​)

就是把所有可能的 n n n个随机变量的取值分别带入求归一化。

显然,若变量个数较多,则团的数目将会很多,这将会给计算带来很大的负担。我们注意到,如果团 Q Q Q不是即极大团,则它必然会被一个极大团 Q ∗ Q^* Q∗所包含,即 Y Q ∈ Y Q ∗ Y_Q\in Y_{Q^*} YQ​∈YQ∗​,这意味着变量 Y Q Y_Q YQ​之间的关系不仅体现在势函数 ψ Q \psi_{Q} ψQ​中,还体现在 ψ Q ∗ \psi_{Q^*} ψQ∗​中。因此,我们可以简单一点直接基于极大团来定义联合概率分布 P ( Y ) P(Y) P(Y)。假设所有极大团构成的集合为 C ∗ C^* C∗,则有:

P ( Y ) = P ( y 1 , … , y n ) = 1 Z ∗ ∏ θ ∈ C ∗ ψ Q ( Y Q ) P(Y)=P\left(y_{1}, \ldots, y_{n}\right)=\frac{1}{Z^{*}} \prod_{\theta \in C^{*}} \psi_{Q}\left(Y_{Q}\right) P(Y)=P(y1​,…,yn​)=Z∗1​∏θ∈C∗​ψQ​(YQ​)

其中, z ∗ z^* z∗的表达式为:

Z ∗ = ∑ Y ∏ Q ∈ C ∗ ψ Q ( Y Q ) = ∑ y 1 , … , y n ∏ Q ∈ C ∗ ψ Q ( Y Q ) Z^{*}=\sum_{Y} \prod_{Q \in \mathcal{C}^{*}} \psi_{Q}\left(Y_{Q}\right)=\sum_{y_{1}, \ldots, y_{n}} \prod_{Q \in \mathcal{C}^{*}} \psi_{Q}\left(Y_{Q}\right) Z∗=∑Y​∏Q∈C∗​ψQ​(YQ​)=∑y1​,…,yn​​∏Q∈C∗​ψQ​(YQ​)

接下来说一下势函数 ψ Q \psi_{Q} ψQ​,为了保证 ψ Q \psi_{Q} ψQ​的非负性,通常定义为指数函数:

ψ Q ( Y Q ) = exp ⁡ { − E ( Y Q ) } \psi_{Q}\left(Y_{Q}\right)=\exp \left\{-E\left(Y_{Q}\right)\right\} ψQ​(YQ​)=exp{−E(YQ​)}

其中, E ( Y θ ) E\left(Y_{\theta}\right) E(Yθ​)称为 Y Q Y_{Q} YQ​的能量函数,是一个定义在变量 Y Q Y_{Q} YQ​上的实质函数,常见的形式为:

E ( Y Q ) = ∑ u , v ∈ Q , v ≠ V α u v y u y v + ∑ v ∈ Q β v y v E\left(Y_{Q}\right)=\sum_{u, v \in Q, v \neq V} \alpha_{u v} y_{u} y_{v}+\sum_{v \in Q} \beta_{v} y_{v} E(YQ​)=∑u,v∈Q,v̸​=V​αuv​yu​yv​+∑v∈Q​βv​yv​

其中, α U V \alpha_{U V} αUV​和 α V \alpha_{V} αV​均为参数,第一项考虑每一对节点的关系,第二项考虑每一个单独节点的关系。

一个简单的例子:

如图所示简单马尔科夫随机场:

图中极大团: { x 2 , x 5 , x 6 } , { x 1 , x 2 } , { x 2 , x 4 } , { x 1 , x 3 } , { x 3 , x 5 } \left\{\mathrm{x}_{2}, \mathrm{x}_{5}, \mathrm{x}_{6}\right\},\left\{\mathrm{x}_{1}, \mathrm{x}_{2}\right\},\left\{\mathrm{x}_{2}, \mathrm{x}_{4}\right\},\left\{\mathrm{x}_{1}, \mathrm{x}_{3}\right\},\left\{\mathrm{x}_{3}, \mathrm{x}_{5}\right\} {x2​,x5​,x6​},{x1​,x2​},{x2​,x4​},{x1​,x3​},{x3​,x5​}

联合概率分布表达式:
P ( X ) = P ( x 1 , x 2 , x 3 , x 4 , x 5 , x 6 ) = 1 Z ψ 256 ( X 2 , X 5 , X 6 ) ψ 12 ( X 1 , X 2 ) ψ 24 ( X 2 , X 4 ) ψ 13 ( X 1 , X 3 ) ψ 35 ( X 3 , X 5 ) P(X)=P\left(x_{1}, x_{2}, x_{3}, x_{4}, x_{5}, x_{6}\right) \\ =\frac{1}{Z} \psi_{256}\left(X_{2}, X_{5}, X_{6}\right) \psi_{12}\left(X_{1}, X_{2}\right) \psi_{24}\left(X_{2}, X_{4}\right) \psi_{13}\left(X_{1}, X_{3}\right) \psi_{35}\left(X_{3}, X_{5}\right) P(X)=P(x1​,x2​,x3​,x4​,x5​,x6​)=Z1​ψ256​(X2​,X5​,X6​)ψ12​(X1​,X2​)ψ24​(X2​,X4​)ψ13​(X1​,X3​)ψ35​(X3​,X5​)

概率图模型(6)马尔科夫随机场相关推荐

  1. 西瓜书+实战+吴恩达机器学习(二二)概率图模型之马尔可夫随机场

    文章目录 0. 前言 1. 马尔可夫随机场结构 2. 近似推断 2.1. Metropolis-Hastings 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~ 0. 前言 ...

  2. 马尔科夫随机场之图像去燥【Matlab实现,PRML例子】

    马尔科夫随机场,本质上是一种概率无向图模型.分类:概率图模型大致上分为两种,一种是有向图,又叫贝叶斯网络,链接节点之间的边是有方向的,用来描述变量之间的因果关系(下图左侧):另一种是无向图,又叫马尔科 ...

  3. 机器学习强基计划6-2:详细推导马尔科夫随机场(MRF)及其应用(附例题)

    目录 0 写在前面 1 无向概率图 2 马尔科夫随机场 3 马尔科夫独立性 4 例题分析 0 写在前面 机器学习强基计划聚焦深度和广度,加深对机器学习模型的理解与应用."深"在详细 ...

  4. 马尔科夫链和马尔科夫随机场

    From:http://blog.csdn.net/j123kaishichufa/article/details/7638181 1.什么是随机过程? 在当代科学与社会的广阔天地里,人们都可以看到一 ...

  5. 马尔科夫随机场之图像分割【二】

    由于经常有读者说运行出错,我又本地校准了下程序,由于版权限制,lena图MATLAB新版已经撤除了,这里改成了cameraman的图 参考:http://blog.csdn.net/on2way/ar ...

  6. MRF,马尔科夫随机场

    之前自己做实验也用过MRF(Markov Random Filed,马尔科夫随机场),基本原理理解,但是很多细节的地方都不求甚解.恰好趁学习PGM的时间,整理一下在机器视觉与图像分析领域的MRF的相关 ...

  7. 关于马尔科夫随机场MRF的思考

    转载自:http://www.cnblogs.com/yysblog/archive/2012/09/17/2689318.html Markov Random Fields(MRF)是undirec ...

  8. 马尔科夫随机场和马尔科夫链

    1.什么是随机过程? 在当代科学与社会的广阔天地里,人们都可以看到一种叫作随机过程的数学模型:从银河亮度的起伏到星系空间的物质分布.从分子的布朗运动到原子的蜕变过程,从化学反应动力学到电话通讯理论.从 ...

  9. 关于马尔科夫随机场(MRF)在图像分割中应用的个人理解

    首先明确几个基本概念(个人理解): 先验概率: 基于历史经验得到的当前事件发生的概率 后验概率: 根据数据或证据得到的事件发生的概率 (由因到果) 似然概率: 已知事件发生的概率下数据或证据发生的概率 ...

最新文章

  1. 串口编程-枚举遍历串口、获取PC所有串口名称、遍历注册表项、RegEnumValue用法
  2. C++类的使用(一)
  3. 机器学习算法Python实现:kmeans文本聚类
  4. VMware、Pivotal和Google Cloud协力推出全新基于Kubernetes的容器服务——Pivotal Container Service(PKS)...
  5. Hadoop配置学习
  6. python安装多少位_python安装流程
  7. 学术 | 基于深度学习的图像边缘和轮廓提取方法介绍
  8. 使用VisualStudio或VisualStudio Code作为代码比较工具
  9. sql科学计数法转换为普通数字_Python3数据类型之数字-Python入门到精通
  10. 第八:Pytes中的fixture大解剖(二)
  11. Python——print()函数的学习笔记
  12. objenesis的基本使用方法
  13. 敏感词在线检测工具-免费敏感词在线检测工具
  14. 上海交大计算机系分数线2019,2019年上海部分高校各专业录取分数线汇总|附2019上海交通大学上海生源情况!...
  15. 【Git学习记录】git查询历史版本记录命令
  16. hibernate mysql 外键_如何在hibernate中设置关联会在数据库中生成外键
  17. 解决 plt.savefig 保存图像为全白或全黑图像方法
  18. 不一样的视角来学习Spring源码之AOP---上
  19. 计算机关闭后剪切板的内容会消失,清除win10剪贴板历史记录,保证隐私数据不泄露...
  20. GBase 8s灾备集群HAC介绍

热门文章

  1. Zookeeper 服务器端和客户端扩大节点数据1M大小限制
  2. liquibase(数据库管理)
  3. tcp 如何维护长连接
  4. 数据库可视化工具 dbForge Studio for MySQL 快速入门以及进阶指导
  5. 众筹一个报名签到平台的设计思路(一)——业务需求篇
  6. 超声在早期银屑病关节炎中的应用价值
  7. 掌控板+Mixly+MixIO 初试物联网-摇杆篇
  8. 找到任务栏广告弹窗的源头
  9. 全球与中国聚 (3,4-亚乙基二氧噻吩) (PEDOT)市场“十四五”规划及远景目标的建议报告2022-2028年
  10. 经验模态分解python_信号处理 - 经验模态分解 【1】