一、什么是贝叶斯网络?

贝叶斯网络是一种用于进行概率推理的模型。(比如说下面这个图,箭头表示因果关系,也就是强盗抢劫和地震都会引起房子铃响,如果房子铃响,那么这个人的两个邻居John和mary会打电话给他)。这里通过因果关系建立起来的网络称之为贝叶斯网络,那么它支持哪些推理呢?

如果我们根据先验知识构建了这个贝叶斯网络,那么我们是可以对这样一个查询进行概率推理的——如果John打电话给我,发生抢劫的概率是多少呢?

这个概率推理的过程运用到了贝叶斯公式,所以我们称之为贝叶斯网络。

二、贝叶斯网络是如何构建的?

其实这个是很trivial的,贝叶斯网络是由领域专家构建的,所有的先验概率都是根据经验统计来的。如果上述的铃响贝叶斯网络就是可以有一般具有常识的人进行构建。先验知识,e.g P(E)是根据以往发生地震的次数统计的概率(其他也是如此得到)。

三、如果根据贝叶斯网络对某个查询进行概率推理。

(一)查询的形式化表示

我们用X表示查询变量,E表示证据变量集E1,E2,...E_1,E_2,...E1​,E2​,...,e表示证据变量的某个具体值(观察到的特定事件),Y表示非证据非查询变量集Y1,Y2,...Y_1,Y_2,...Y1​,Y2​,...(也称隐藏变量,hidden variable)。这样,全部变量的集合是X∪E∪Y{X}\cup E\cup YX∪E∪Y.举例,比如“如果John打电话给我,发生抢劫的概率是多少呢?”这个查询,查询变量就是Burgary(用大写表示该布尔变量)=<burgary,¬burgaryburgary, \neg burgaryburgary,¬burgary>, 证据变量就是johncall(用小写表示布尔变量值,这里代表true)。其他变量就是属于非证据非查询变量集。

对于查询的概率推理其实就是求后验概率P(X∣e)P(X|e)P(X∣e), 即已知e的情况下求X的概率。在上诉的例子中就是求P(Burgary|johncall).

(二)精确推理

1.通过枚举进行推理

什么是枚举?

通过枚举其他所有的非证据非查询变量来获得目标后验概率,如下:
P(X∣e)=P(X,e)P(e)=αP(X,e)=α∑yP(X,e,y)P(X|e)=\dfrac{P(X,e)}{P(e)} = \alpha P(X,e) = \alpha \sum_y P(X,e,y)P(X∣e)=P(e)P(X,e)​=αP(X,e)=αy∑​P(X,e,y)

其中y代表证据变量Y的可能取值。上述P(e)是先验概率,可用α\alphaα替代。


贝叶斯网络的语义使得上述的联合概率可以转化为一系列的条件概率和先验概率的乘积。比如Burglary=true的计算过程为:

P(b∣j,m)=α∑e∑aP(b)P(e)P(a∣b,e)P(j∣a)P(m∣a)P(b \mid j, m)=\alpha \sum_{e} \sum_{a} P(b) P(e) P(a \mid b, e) P(j \mid a) P(m \mid a)P(b∣j,m)=αe∑​a∑​P(b)P(e)P(a∣b,e)P(j∣a)P(m∣a)

上诉表达式需要对4各项求和,而每一行对视5个数的乘积。所以这个算法对于布尔变量组成的贝叶斯网络来说时间复杂度为O(n2n)O(n2^n)O(n2n), n是非证据非查询变量数。

通过上述算法,我们可以把复杂度进一步减到1+2+22+...2n=2n+1−1=O(2n)1+2+2^{2} +...2^{n} =2^{n+1}-1=O(2^n) 1+2+22+...2n=2n+1−1=O(2n)

2.推理优化

(1)变量消元法
我们可以看到上面那棵树中P(m|a)实际上运算了两次,即上述递归算法存在重复计算的问题。利用动态规划的思想,我们想要以空间换时间,将某些变量的条件概率保存起来,那么就有了变量消元法:

变量消元算法的工作方式是按照从右到左的次序(也就是按照图14.8中自底向上的次序)计算诸如公式(14.4)的表达式。中间结果被保存下来,而对每个变量的求和只需要对依赖于这些变量的表达式部分进行就可以了。

(2)调整变量顺序和变量相关性

(1)中算法包含了一个不明确的 ORDER函数来选择变量的顺序。变量顺序的每种选择都会得到一个有效算法,但不同的变量顺序会在计算过程中产生不同的中间因子。

当变量不只是布尔变量时,我们优先选择变量值更少的变量,可以降低算法复杂度。

另外根据贝叶斯网络,我们可以从网络中删除一些与当前查询无关的点,因为求和之后他们的概率和为1,对概率推理的结构没有影响.比如:

(三)近似推理

1.为什么要近似推理

因为大规模多连通网络中的精确推理是不实际的(复杂度太高),NP难。

2. 如何进行近似推理

使用采样方法中的统计结果模拟真实的概率值P(X|e)。这种思想(算法)称为蒙特卡洛算法。比如我们一开始提到得例子,如果John打电话给我(记为A),发生抢劫(记为B)的概率是多少呢?如果贝叶斯网络很大,精确计算得复杂度,就会很高。那么我们依照已有得先验概率对所有变量进行采样,最后P(B∣A)=同时包含A,B得样本包含A的样本P(B|A) =\dfrac{同时包含A,B得样本}{包含A的样本}P(B∣A)=包含A的样本同时包含A,B得样本​ 。可以想见,对于大规模多联通网络,这种近似推理的方法比精确推理的复杂度要低得多。

蒙特·卡罗方法(Monte Carlo method),也称统计模拟方法,是二十世纪四十年代中期由于科学技术的发展和电子计算机的发明,而被提出的一种以概率统计理论为指导的一类非常重要的数值计算方法。是指使用随机数(或更常见的伪随机数)来解决很多计算问题的方法。


2.1直接采样算法
按某个变量顺序(一般是从父到子顺序)按先验概率进行采样,如上图,比如Cloudy的概率分布<0.5,0.5>,那在生成样本的时候就是一半生成为True,一半生成为False. 接下来一次对Sprinkler,Rain,WetGrass进行采样,可以得到一条样本(e.g. [true,true,false,true])。当我们得到N条样本,我们可以用相应查询变量的频率估计改查询变量的概率。例如,假设我们从草坪喷灌( sprinkler)网络生成了1000个样本,其中511个样本满足Rain=true,那么下雨的估计概率,记作P(Rain=true),就等于0.511。

2.2拒绝采样算法

首先,它根据网络指定的先验分布生成采样样本。然后,它拒绝所有与证据不匹配的样本。最后,在剩余样本种通过统计X=x的频次而计算出估计概率P^(X=x∣e)\hat P(X=x|e)P^(X=x∣e)。

缺点:拒绝了太多了样本。随着证据变量个数的增多,与证据e相一致的样本在所有样本种所占的比例呈指数级下降,所以对于复杂问题不能适用。

2.3似然加权 liklihood weighting

似然加权只生成与证据e一致的事件,从而避免拒绝采样算法的低效率。它是重要性采样(importance sampling)的一般统计技术的特殊情况。

但是这里有一个问题,就是这样统计出来的概率并不是目标事件发生的概率。因为证据变量本身也存在概率分布,这里我们把证据e固定住了来进行采样,事实上概率是偏大的。

因此我们需要设置跟证据变量e概率分布相关的一个权值w,来补偿真实分布和期望采样分布之间的差距。

在估计目标事件P^(X=x∣e)\hat P(X=x|e)P^(X=x∣e)的概率时,我们统计的是X=x的权值总和,而并不是X=x的频次。

可以证明,用似然加权抽样方法估计(似然加权估计)的概率跟精确计算的概率值是相近(一致)的。证明如下:
(1)将非证据(含查询变量)记作Z,虽然我们固定了证据变量,但是采样的时候还是根据以下的概率分布进行采样的:
SWS(z,e)=∏i=1lP(zi∣parents (Zi))S_{W S}(\mathbf{z}, \mathbf{e})=\prod_{i=1}^{l} P\left(z_{i} \mid \text { parents }\left(Z_{i}\right)\right)SWS​(z,e)=i=1∏l​P(zi​∣ parents (Zi​))
因此,我们最后得到某一条的频数(采样结果)和这个概率分布是一致的。
(2)每一条样本的权值计算w(z,e)
w(z,e)=∏i=1mP(ei∣parents (Ei))w(\mathbf{z}, \mathbf{e})=\prod_{i=1}^{m} P\left(e_{i} \mid \text { parents }\left(E_{i}\right)\right)w(z,e)=i=1∏m​P(ei​∣ parents (Ei​))
(3) 我们说最后估计目标事件P^(X=x∣e)\hat P(X=x|e)P^(X=x∣e)的概率时,我们统计的是X=x的权值总和,而并不是X=x的频次。也就是说最后统计的是相同的子事件的频次*权值(如下所示)
P^(x∣e)=α∑yNWS(x,y,e)w(x,y,e)≈α′∑ySWS(x,y,e)w(x,y,e)=α′∑yP(x,y,e)=α′P(x,e)=P(x∣e)\begin{aligned} \hat{P}(x \mid \mathbf{e}) &=\alpha \sum_{\mathbf{y}} N_{W S}(x, \mathbf{y}, \mathbf{e}) w(x, \mathbf{y}, \mathbf{e}) \\ & \approx \alpha^{\prime} \sum_{\mathbf{y}} S_{W S}(x, \mathbf{y}, \mathbf{e}) w(x, \mathbf{y}, \mathbf{e}) \\ &=\alpha^{\prime} \sum_{\mathbf{y}} P(x, \mathbf{y}, \mathbf{e}) \\ &=\alpha^{\prime} P(x, \mathbf{e})=P(x \mid \mathbf{e}) \end{aligned}P^(x∣e)​=αy∑​NWS​(x,y,e)w(x,y,e)≈α′y∑​SWS​(x,y,e)w(x,y,e)=α′y∑​P(x,y,e)=α′P(x,e)=P(x∣e)​
这里x是查询变量,y是非证据非查询变量,e是证据变量。(x,y,e)可认为是(x,e)的子事件(因为后者是前者的全部的和)。上面这个式子就证明了用似然加权抽样方法估计(似然加权估计)的概率跟精确计算的概率值是相近(一致)的。

2.4 通过模拟马尔科夫链进行推理

在阅读本小节内容之前,强烈推荐先阅读以下内容:

LDA-math-MCMC 和 Gibbs Sampling
MCMC(一)蒙特卡罗方法
MCMC(二)马尔科夫链
MCMC(三)MCMC采样和M-H采样
MCMC(四)Gibbs采样

马尔可夫链蒙特卡洛( Markov chain Monte Carlo,MCMC)算法与拒绝采样和似然加权的工作方式有很大差异。马尔可夫链蒙特卡洛算法不是白手起家生成样本,而是通过对前一个样本进行随机改变而生成样本。因此我们可把MCMC算法想象成:在特定的当前状态每个变量的取值都已确定然后随机修改当前状态而生成下一个状态。(如果这使你想起第4章的模拟退火算法或第7章的 WALKSAT,是因为它们都是MCMC算法家族的成员)。这里我们将描述一种特殊形式的MCMC算法,称为 Gibbs采样,它特别适合贝叶斯网络。

吉布斯采样的一个具体方法(下面的伪代码很难看,还是要耐心看一下):


下面给出一个例子,也许会更好地理解:

考虑应用于上图a所示网络的查询P( Rain I Sprinkler=true, Wetgrass=true)。证据变量 Sprinkler和 Wetgrass固定为它们的观察值,而非证据变量 Cloud和Rain则随机地初始化一一比如,分别初始化为true和 false。因此,初始状态为[true,true, false,true]。现在,以任意顺序对非证据变量采样。例如:

1.对 Cloud采样,给定它的马尔可夫覆盖变量的当前值:在这里,我们是从P(Cloudy|Sprinkler=true,Rain=false)中采样。(我们马上会说明如何计算这个分布)。假设采样结果为Cloudy= false。那么新的当前状态是[ false,true,false,true].

2.对Rain采样,给定它的马尔可夫覆盖变量的当前值:在这里,我们是从P(Rain|Coudd=false, Sprinkler=true, Wetgrass=true)中采样。假设采样结果为Raim=true。新的当前状态是[false,true,true,true]。

这个过程中所访问的每一个状态都是一个样本,能对查询变量Rain的估计做贡献。如果该过程访问了20个Rain为真的状态和60个Rain为假的状态,则所求査询的解为NORMALI7E(20,60)=(0.25,0.75)。完整的算法如图14.16所示。

现在的一个问题是:如何证明这种采样方法推理的得到的概率P~(x∣e)\tilde P(x|e)P~(x∣e)就近似等价于真实的P(x∣e)P(x|e)P(x∣e)
拆成两个子问题就是
(1)达到稳态的时候,生成的样本是否服从这个稳态分布?
(2)稳态分布是否就是真实分布?

四、Gibbs采样的几个问题及其解释

1.马氏链收敛定理

为了证明第一个问题,先复述下马氏链的收敛定理。

这个马氏链的收敛定理非常重要,所有的 MCMC(Markov Chain Monte Carlo) 方法都是以这个定理作为理论基础的 定理的证明相对复杂,一般的随机过程课本中也不给证明,所以我们就不用纠结它的证明了,直接用这个定理的结论就好了。(以下内容引自LDA-math-MCMC 和 Gibbs Sampling)

马氏链收敛定理:如果一个非周期马氏链具有转移概率矩阵P,且它的任何两个状态时联通的,那么lim⁡n→∞Pijn\displaystyle \lim_{n\rightarrow\infty}P_{ij}^nn→∞lim​Pijn​存在而且与i无关,记lim⁡n→∞Pijn=π(j)\displaystyle \lim_{n\rightarrow\infty}P_{ij}^n=\pi(j)n→∞lim​Pijn​=π(j),我们有

  1. lim⁡n→∞Pn=[π(1)π(2)⋯π(j)⋯π(1)π(2)⋯π(j)⋯⋯⋯⋯⋯⋯π(1)π(2)⋯π(j)⋯⋯⋯⋯⋯⋯]\displaystyle \lim_{n \rightarrow \infty} P^n =\begin{bmatrix} \pi(1) & \pi(2) & \cdots & \pi(j) & \cdots \\ \pi(1) & \pi(2) & \cdots & \pi(j) & \cdots \\ \cdots & \cdots & \cdots & \cdots & \cdots \\ \pi(1) & \pi(2) & \cdots & \pi(j) & \cdots \\ \cdots & \cdots & \cdots & \cdots & \cdots \\ \end{bmatrix} n→∞lim​Pn=⎣⎢⎢⎢⎢⎡​π(1)π(1)⋯π(1)⋯​π(2)π(2)⋯π(2)⋯​⋯⋯⋯⋯⋯​π(j)π(j)⋯π(j)⋯​⋯⋯⋯⋯⋯​⎦⎥⎥⎥⎥⎤​
  2. π(j)=∑i=0∞π(i)Pij\displaystyle \pi(j) = \sum_{i=0}^{\infty}\pi(i)P_{ij}π(j)=i=0∑∞​π(i)Pij​
  3. π\piπ是方程πP=π\pi P=\piπP=π的唯一非负解

其中,
π=[π(1),π(2),⋯,π(j),⋯],∑i=0∞πi=1\pi = [\pi(1), \pi(2), \cdots, \pi(j),\cdots ], \quad \sum_{i=0}^{\infty} \pi_i = 1π=[π(1),π(2),⋯,π(j),⋯],i=0∑∞​πi​=1

π\piπ称为马氏链的稳态分布。

π(j)=∑i=0∞π(i)Pij\displaystyle \pi(j) = \sum_{i=0}^{\infty}\pi(i)P_{ij}π(j)=i=0∑∞​π(i)Pij​可用来判断一个分布是否是稳态分布(马氏链是否一收敛)。但是我们可以用更细致的判定条件来判断:

马氏链的细致平稳条件如果非周期马氏链的转移矩阵P和分布π(x)\pi(x)π(x)满足
π(i)Pij=π(j)Pjifor alli,j\pi(i)P_{ij} = \pi(j)P_{ji} \quad\quad \text{for all} \quad i,j π(i)Pij​=π(j)Pji​for alli,j
则π(x)\pi(x)π(x)是马氏链的稳态分布。

2. 达到稳态的时候,生成的样本服从这个稳态分布?


首先,我们是随机生成了一个样本(状态)x0x_0x0​, 它应该是属于某个随机分布。

不妨把一开始的随机生成的样本服从的分布记为π0(x)\pi _0(x)π0​(x),根据马氏链定理,任意一个初始分布都会收敛到相同的稳态分布(稳态分布实际上由状态转移矩阵决定)。

那么我们第2个样本的生成是选定X的第i个非证据变量,然后依照条件概率P(Zi∣mb(Zi))P(Z_i|mb(Z_i))P(Zi​∣mb(Zi​))进行采样。因此第2轮的样本第i个分量服从的分布是 π1(i)=π0(i)P(Zi)\pi _1(i)=\pi _0(i)P(Z_i)π1​(i)=π0​(i)P(Zi​),记π1(x)=[π0(1),...π1(i),...π0(n)]\pi_1(x) = [\pi_0(1),...\pi_1(i),...\pi_0(n)]π1​(x)=[π0​(1),...π1​(i),...π0​(n)],那么显然这个样本服从分布π1(x)\pi_1(x)π1​(x)

假设到第n步的时候马氏链收敛,也就是这时候采样的样本服从的分布πn(x)\pi _n(x)πn​(x)不再变化。这样不太变化的分布就是稳态分布。也就是生成的样本服从这个稳态分布。

现在来证明第二个问题。

3. 稳态分布是否就是真实分布?

在一般的吉布斯采样中,一般都是确定了真实分布,将稳态分布就设定为目标真实分布,然后去找该分布的状态转移矩阵。

但是在贝叶斯网中,我们是先知道了状态转移矩阵,其第i行上的元素为P(Zi∣mb(Zi)P(Z_i|mb(Z_i)P(Zi​∣mb(Zi​),那么我们来验证,这个状态转移矩阵最终达到的稳态分布是否就是我们想要的真实分布P(x∣e)P(x|e)P(x∣e)

一种证明方法是,我们把稳态分布π(x)\pi(x)π(x)赋值为P(x∣e)P(x|e)P(x∣e)(猜值求证法),看它是否满足细致平稳条件,如果是,又根据稳态分布的唯一性,说明最终的稳态分布π(x)\pi(x)π(x)就是真实分布P(x∣e)P(x|e)P(x∣e)。

我们知道,采样器逐次以转移概率qiq_iqi​采样每个变量XiX_iXi​,转移概率qiq_iqi​以所有其他变量为条件——定义Xˉi\bar X_iXˉi​为除证据变量和XiX_iXi​以外的所有其他变量;当前状态下它们的值是xˉi\bar x_ixˉi​。如果以包括证据变量在内所有其他变量为条件采样XiX_iXi​的一个新值xi′x_i^{'}xi′​,则有
qi(x→x′)=qi((xi,x‾i)→(xi′,x‾i))=P(xi′∣x‾i,e)q_{i}\left(\mathbf{x} \rightarrow \mathbf{x}^{\prime}\right)=q_{i}\left(\left(x_{i}, \overline{\mathbf{x}}_{i}\right) \rightarrow\left(x_{i}^{\prime}, \overline{\mathbf{x}}_{i}\right)\right)=P\left(x_{i}^{\prime} \mid \overline{\mathbf{x}}_{i}, \mathbf{e}\right)qi​(x→x′)=qi​((xi​,xi​)→(xi′​,xi​))=P(xi′​∣xi​,e)

现在我们将P(x∣e)P(x|e)P(x∣e)带入细致平稳条件
π(x)qi(x→x′)=P(x∣e)P(xi′∣x‾i,e)=P(xi,x‾i∣e)P(xi′∣x‾i,e)=P(xi∣x‾i,e)P(x‾i∣e)P(xi′∣x‾i,e)=P(xi∣x‾i,e)P(xi′,x‾i∣e)=π(x′)qi(x′→x)\begin{aligned} \pi(\mathbf{x}) q_{i}\left(\mathbf{x} \rightarrow \mathbf{x}^{\prime}\right) &=P(\mathbf{x} \mid \mathbf{e}) P\left(x_{i}^{\prime} \mid \overline{\mathbf{x}}_{i}, \mathbf{e}\right)=P\left(x_{i}, \overline{\mathbf{x}}_{i} \mid \mathbf{e}\right) P\left(x_{i}^{\prime}\mid \overline{\mathbf{x}}_{i}, \mathbf{e}\right)\\ &=P\left(x_{i} \mid \overline{\mathbf{x}}_{i}, \mathbf{e}\right) P\left(\overline{\mathbf{x}}_{i} \mid \mathbf{e}\right) P\left(x_{i}^{\prime} \mid \overline{\mathbf{x}}_{i}, \mathbf{e}\right) \\ &=P\left(x_{i} \mid \overline{\mathbf{x}}_{i}, \mathbf{e}\right) P\left(x_{i}^{\prime}, \overline{\mathbf{x}}_{i} \mid \mathbf{e}\right) \\ &=\pi\left(\mathbf{x}^{\prime}\right) q_{i}\left(\mathbf{x}^{\prime} \rightarrow \mathbf{x}\right) \end{aligned}π(x)qi​(x→x′)​=P(x∣e)P(xi′​∣xi​,e)=P(xi​,xi​∣e)P(xi′​∣xi​,e)=P(xi​∣xi​,e)P(xi​∣e)P(xi′​∣xi​,e)=P(xi​∣xi​,e)P(xi′​,xi​∣e)=π(x′)qi​(x′→x)​

可见,它满足细致平稳条件,因此,我们证明了贝叶斯网络中稳态分布就是真实分布。

4. 为什么要用吉布斯采样?

所谓的吉布斯采样和直接采样、拒绝采样有什么区别?

从算法上可以看到吉布斯采样比简单采样、拒绝采样在得到一条样本上计算量更少(改变一个变量的值即得到一个新的样本,而后面两种算法得到一条样本需要计算对每一个变量的值进行取样)。

一般来说,直接采样和拒绝采样适用于分布已知的情况。比如高中课本里面使用随机撒豆子来求圆的面积和正方形面积的比例,这种情况豆子出现位置的分布是一个均匀分布,因此可以直接使用直接采样。

但是当像在贝叶斯网络里面,存在多个变量(包括查询变量和非查询非证据变量),我们要采样的样本是包含这样多个变量的,也就是说我们的采样是基于联合分布的。正如上面贝叶斯网络简单抽样的算法所示,基于这样的联合分布进行简单采样会导致更多的计算量。

而Gibbs采样特别适用于联合分布未知或难以直接抽样,但每个变量的条件分布已知且易于(或至少更容易)抽样的情况。

参考资料

LDA-math-MCMC 和 Gibbs Sampling
MCMC(一)蒙特卡罗方法
MCMC(二)马尔科夫链
MCMC(三)MCMC采样和M-H采样
MCMC(四)Gibbs采样
《人工智能——一种现代的方法》

机器学习:贝叶斯网络相关推荐

  1. 机器学习——贝叶斯网络

    机器学习--贝叶斯网络 贝叶斯网络 贝叶斯网络结构 贝叶斯网络 贝叶斯网络是一种概率图模型,于1985年由Judea Pearl首先提出.它是一种模拟人类推理过程中因果关系的不确定性处理模型,其网络拓 ...

  2. 机器学习-贝叶斯网络

    贝叶斯网络的概念 把某个研究系统中涉及的随机变量,根据是否条件独立绘制在一个有向图中,就形成了贝叶斯网络. 贝叶斯网络(Bayesian network),又称信念网络(Belief Network) ...

  3. [Python嗯~机器学习]---贝叶斯网络

    贝叶斯网络 首先,我们再想一下,相对熵和互信息 相对熵是表示两个随机分布之间的距离,也是最大期望算法(EM)的损失函数,是一个大于等于 0 的值. 互信息是设两个随机变量  的联合分布为 ,边际分布分 ...

  4. 贝叶斯网络之父Judea Pearl力荐、LeCun点赞,这篇长论文全面解读机器学习中的因果关系...

    来源:机器之心 作者:Bernhard Schölkopf 图灵奖得主.贝叶斯网络之父 Judea Pearl 曾自嘲自己是「AI 社区的反叛者」,因为他对人工智能发展方向的观点与主流趋势相反.Pea ...

  5. 贝叶斯网络之父:当前的机器学习其实处于因果关系之梯的最低层级

    来源:大数据文摘 每当提起"无人驾驶"汽车技术如何强大,又被大众赋予了怎样的期待,都会让人想起HBO电视剧Silicon Valley<硅谷>中的一个情节: 硅谷大亨风 ...

  6. 【机器学习基础】数学推导+纯Python实现机器学习算法12:贝叶斯网络

    Python机器学习算法实现 Author:louwill 在上一讲中,我们讲到了经典的朴素贝叶斯算法.朴素贝叶斯的一大特点就是特征的条件独立假设,但在现实情况下,条件独立这个假设通常过于严格,在实际 ...

  7. 西瓜书+实战+吴恩达机器学习(二一)概率图模型之贝叶斯网络

    文章目录 0. 前言 1. 贝叶斯网络结构 2. 近似推断 2.1. 吉布斯采样 3. 隐马尔可夫模型HMM 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~ 0. 前言 概率 ...

  8. 机器学习算法(二十七):贝叶斯网络

    目录 1. 对概率图模型的理解 2. 贝叶斯方法 2.1 频率派观点 2.2 贝叶斯学派 2.3 贝叶斯定理 2.4 应用:拼写检查 3 贝叶斯网络 3.1 贝叶斯网络的定义 3.2 贝叶斯网络的3种 ...

  9. 机器学习-白板推导-系列(九)笔记:概率图模型: 贝叶斯网络/马尔可夫随机场/推断/道德图/因子图

    文章目录 0 笔记说明 1 背景介绍 1.1 概率公式 1.2 概率图简介 1.2.1 表示 1.2.2 推断 1.2.3 学习 1.2.4 决策 1.3 图 2 贝叶斯网络 2.1 条件独立性 2. ...

  10. 机器学习笔记之概率图模型(四)基于贝叶斯网络的模型概述

    机器学习笔记之概率图模型--基于贝叶斯网络的模型概述 引言 基于贝叶斯网络的模型 场景构建 朴素贝叶斯分类器 混合模型 基于时间变化的模型 特征是连续型随机变量的贝叶斯网络 动态概率图模型 总结 引言 ...

最新文章

  1. 关于VC向导生成的COM的注册与反注册
  2. 深入解析oracle回滚段
  3. 数学和计算机的应用视频教学反思,数学多媒体教学反思.doc
  4. echars显示折点数据_Echarts 折线图一个点显示多个实时数据tooltip
  5. mysql自定义函数重载_DBLE 2.18.10.1自定义路由函数开发指引
  6. Python九九乘法表(作业)
  7. hive变量传递的源码实现
  8. 性能测试学习笔记-如何管理loadrunner的临时文件
  9. Hadoop安装部署的三种模式总结
  10. python用sort()函数对列表进行排序,从最后一个元素开始判断,超详细讲解,图文+视频
  11. 自由网络-去中心化分布式网络
  12. 生成二维码并将Bitmap保存成图片
  13. python: reverse reversed 函数
  14. 【软件测试】白盒测试方法与黑盒测试方法的区别
  15. 屏蔽无法验证发行者,你确实要运行此软件吗?的提示
  16. 数值分析-龙格库塔法
  17. 惠普DV2000 V3000笔记本散热不良温度过高简单改造见效降温
  18. Dev Express18.1.5安装及汉化过程
  19. Android 检测获取 Mac 权限
  20. jtag调试 c语言,研究基于IEEE1149.7标准的CJTAG测试设计方法

热门文章

  1. AltiumDesigner绘制PCB(一)
  2. python统计段落单词词频_python词频统计实例
  3. java ssm基于springboot的设备巡检系统
  4. 用VS运行程序错误,提示0x000007b
  5. 海康rtsp抓包分析
  6. 什么是PaaS云平台?
  7. 数据结构与算法面试题(2022版本)
  8. 银行开发专业术语解释和银行系统开发架构的设计思想
  9. 485转4-20mA信号转换0-10v5v电压电流采集模块
  10. 数据挖掘案例(2):用户画像