文章目录

  • 第一部分:贝叶斯网基础
    • [1.1 信息论基础](https://blog.csdn.net/deepbodhi/article/details/119823055)
    • 1.2 贝叶斯网基本概念
      • 1.2.1 不确定性推理与联合概率分布
      • 1.2.2 利用条件独立对联合分布进行分解
      • 1.2.3 贝叶斯网概念
      • 1.2.4 手工构造贝叶斯网
        • 1.2.4.1 确定网络结构
        • 1.2.4.2 因果关系与贝叶斯网
        • 1.2.4.3 确定网络参数
        • 1.2.4.4 减少网络参数

第一部分:贝叶斯网基础

1.1 信息论基础

1.2 贝叶斯网基本概念

本节首先分析直接用联合概率分布进行概率推理的困难,然后讨论利用变量间的条件独立关系将联合概率分布加以分解,降低模型复杂度,并引出贝叶斯网的定义。最后介绍如何手工构造贝叶斯网。

1.2.1 不确定性推理与联合概率分布

不确定性推理是人工智能研究的重要课题之一,该领域有很多方法,其中概率方法时最自然也是最早被尝试的方法之一,因为概率论本身就是关于随机现象和不确定性的数学理论。
使用概率方法进行不确定性推理就是:

  • 把问题用一组随机变量X={X1,X2,⋯,Xn}X=\{X_1,X_2,\cdots,X_n\}X={X1​,X2​,⋯,Xn​}来刻画;
  • 把关于问题的知识表示为一个联合概率分布P(X)P(X)P(X);
  • 按照概率论原则进行推理计算。

下面引入一个案例,由于物联网时代的到来,下面这个案例已经过时了,传感器的精度足以消除不确定性,笔者一时还没有想出更好的案例,暂且仍使用这个经典案例,请读者代入当年的情景进行理解:
例1.2.1 (报警问题) Pearl教授住在洛杉矶,那里地震和盗窃时有发生,教授家里装有警铃,听到警铃后,两个邻居Mary和John可能会打电话给他。 某天,Pearl教授接到Mary的电话,说听到他家的警报,请问Pearl教授家遭盗窃的概率是多大?
该问题包含5个随机变量:盗窃(Burglary,B)、地震(Earthquake,E)、警铃响(Alarm,A)、接到John电话(J)、接到Mary电话(M);所有变量的取值均为『Y』或『N』。
变量之间的关系存在不确定性:

  • 盗窃和地震以一定概率随机发生;
  • 它们发生后不一定会触发警铃;
  • 警铃响起后,Mary和John可能没有听到警铃;
  • Mary和John可能将其它声音误认为是警铃。

假设Pearl教授对这5个变量的联合概率分布P(B,E,A,J,M)P(B,E,A,J,M)P(B,E,A,J,M)的评估如下表所示,要计算接到Mary的电话(M=Y)后,Pearl教授对家里遭盗(B=Y)的信度,即P(B=Y∣M=Y)P(B=Y|M=Y)P(B=Y∣M=Y)。

从联合概率分布P(B,E,A,J,M)P(B,E,A,J,M)P(B,E,A,J,M)出发,先计算边缘分布:
P(B,M)=∑E,A,JP(B,E,A,J,M)P(B,M)=\sum_{E,A,J}P(B,E,A,J,M) P(B,M)=E,A,J∑​P(B,E,A,J,M)
得到下表:

再按照条件概率定义,得:
P(B=Y∣M=Y)=P(B=Y,M=Y)P(M=Y)=P(B=Y,M=Y)P(B=Y,M=Y)+P(B=N,M=Y)≈0.61\begin{aligned} P(B=Y|M=Y) &= \frac{P(B=Y,M=Y)}{P(M=Y)} \\ &= \frac{P(B=Y,M=Y)}{P(B=Y,M=Y)+P(B=N,M=Y)} \\ &\approx 0.61 \end{aligned} P(B=Y∣M=Y)​=P(M=Y)P(B=Y,M=Y)​=P(B=Y,M=Y)+P(B=N,M=Y)P(B=Y,M=Y)​≈0.61​

从以上过程可知,直接使用联合分布进行不确定性推理的复杂度很高,上例中有5个二值随机变量,联合分布包含25−1=312^5-1=3125−1=31个独立参数。一般地,n个二值变量的联合概率分布包含2n−12^n-12n−1个独立参数(-1是因为存在概率归一化条件)。因此,联合分布的复杂度与变量个数呈指数增长。当变量很多时,联合概率的获取、存储和运算都变得十分困难。

1.2.2 利用条件独立对联合分布进行分解

联合概率分布可以通过链规则分解为条件概率乘积的形式,如上例中的联合概率分布可分解为:
P(B,E,A,J,M)=P(B)P(E∣B)P(A∣B,E)P(J∣B,E,A)P(M∣B,E,A,J)\begin{aligned} & P(B,E,A,J,M) \\ =& P(B)P(E|B)P(A|B,E)P(J|B,E,A)P(M|B,E,A,J) \end{aligned} =​P(B,E,A,J,M)P(B)P(E∣B)P(A∣B,E)P(J∣B,E,A)P(M∣B,E,A,J)​
当然,这并没有降低模型的复杂度。我们来分析一下等式右侧的复杂度。P(B)P(B)P(B)的复杂度为1(概率归一性),P(E∣B)P(E|B)P(E∣B)的复杂度为2,注意这和P(E,B)P(E,B)P(E,B)的复杂度不同,后者的复杂度是22−1=32^2-1=322−1=3,而条件概率的复杂度,针对每一种条件组合都可以运用一次概率归一性,因此P(E∣B)P(E|B)P(E∣B)的复杂度为21×(21−1)=22^1\times(2^1-1)=221×(21−1)=2,同样,P(A∣B,E)P(A|B,E)P(A∣B,E)复杂度为22×(21−1)=42^2\times(2^1-1)=422×(21−1)=4,以此类推,等式右侧的复杂度为1+2+4+8+16=31,与等式左侧的联合概率分布复杂度相同。
但是,根据背景知识我们可以做一些合理的假设,从而降低模型复杂度。例如:

  • 地震(E)应与盗窃(B)无关,可假设E与B独立,即P(E|B)=P(B),从而可将P(E|B)化简为P(E),复杂度从2降低为1;
  • John(J)和Mary(M)是否打电话取决于他们是否听到警铃(A),因此可假设给定A时,J与B和E,以及M与J、B、E都相互独立,即P(J|B,E,A)=P(J|A)和P(M|B,E,A,J)=P(M|A)

将这些假设都放到一起,可得:
P(B,E,A,J,M)=P(B)P(E)P(A∣B,E)P(J∣A)P(M∣A)P(B,E,A,J,M)=P(B)P(E)P(A|B,E)P(J|A)P(M|A) P(B,E,A,J,M)=P(B)P(E)P(A∣B,E)P(J∣A)P(M∣A)
等式右侧的复杂度降低为1+1+4+2+2=10,相对于左侧联合概率分布的31个参数,模型复杂度大大降低。
更一般地,考虑一个包含n个变量的联合分布P(X1,X2,⋯,Xn)P(X_1,X_2,\cdots,X_n)P(X1​,X2​,⋯,Xn​),利用链规则,可分解为:
P(X1,X2,⋯,Xn)=P(X1)P(X2∣X1)⋯P(Xn∣X1,X2,⋯,Xn−1)=∏i=1nP(Xi∣X1,X2,⋯,Xi−1)\begin{aligned} P(X_1,X_2,\cdots,X_n) &= P(X_1)P(X_2|X_1)\cdots P(X_n|X_1,X_2,\cdots,X_{n-1}) \\ &= \prod_{i=1}^{n}P(X_i|X_1,X_2,\cdots,X_{i-1}) \end{aligned} P(X1​,X2​,⋯,Xn​)​=P(X1​)P(X2​∣X1​)⋯P(Xn​∣X1​,X2​,⋯,Xn−1​)=i=1∏n​P(Xi​∣X1​,X2​,⋯,Xi−1​)​
对任意XiX_iXi​,如果存在π(Xi)⊆{X1,⋯,Xi−1}\pi(X_i)\subseteq\{X_1,\cdots,X_{i-1}\}π(Xi​)⊆{X1​,⋯,Xi−1​},使得给定π(Xi)\pi(X_i)π(Xi​),XiX_iXi​与{X1,⋯,Xi−1}\{X_1,\cdots,X_{i-1}\}{X1​,⋯,Xi−1​}中的其它变量条件独立,即:
P(Xi∣X1,⋯,Xi−1)=P(Xi∣π(Xi))P(X_i|X_1,\cdots,X_{i-1})=P(X_i|\pi(X_i)) P(Xi​∣X1​,⋯,Xi−1​)=P(Xi​∣π(Xi​))
则有:
P(X1,⋯,Xn)=∏i=1nP(Xi∣π(Xi))(1.2.1)P(X_1,\cdots,X_n)=\prod_{i=1}^{n}P(X_i|\pi(X_i)) \tag{1.2.1} P(X1​,⋯,Xn​)=i=1∏n​P(Xi​∣π(Xi​))(1.2.1)
这样,就得到了联合分布的一个分解,其中当πXi=∅\pi{X_i}=\emptysetπXi​=∅时,P(Xi∣π(Xi))P(X_i|\pi(X_i))P(Xi​∣π(Xi​))为边缘分布P(Xi)P(X_i)P(Xi​)。
假设对任意XiX_iXi​,π(Xi)\pi(X_i)π(Xi​)最多包含m个变量,当所有变量均取二值时,对联合概率分布进行条件独立分解,参数个数将由2n−12^n-12n−1降低为n2mn2^mn2m个,当变量数目n很大,且m≪nm\ll nm≪n时,效果更显著。

1.2.3 贝叶斯网概念

上式(1.2.1)所示的分解中,给定π(Xi)\pi(X_i)π(Xi​),则XiX_iXi​与{X1,⋯,Xi−1}\{X_1,\cdots,X_{i-1}\}{X1​,⋯,Xi−1​}中的其它变量条件独立。我们可以用如下方法构造一个有向图来表示这些依赖和独立关系:

  • 把每个变量都表示为一个节点;
  • 对每个变量X,都从π(Xi)\pi(X_i)π(Xi​)中的每个节点画一条有向边到XiX_iXi​。

在Alarm问题中,π(B)=π(E)=∅\pi(B)=\pi(E)=\emptysetπ(B)=π(E)=∅,π(A)={B,E}\pi(A)=\{B,E\}π(A)={B,E},π(J)={A}\pi(J)=\{A\}π(J)={A},π(M)={A}\pi(M)=\{A\}π(M)={A},按照上述方法,可得到如下所示的有向图。

从图中可以看到,变量A依赖于B和E,且通过条件概率分布P(A|B,E)定量描述了依赖关系:在盗窃和地震都发生时,警铃响的概率P(A=Y|B=Y,E=Y)=0.95;当只有盗窃但没有地震时,警铃响的概率P(A=Y|B=Y,E=N)=0.29;当直发生地震没有盗窃时,警铃响的概率P(A=Y|B=N,E=Y)=0.94;而当盗窃和地震都未发生时,警铃响的概率P(A=Y|B=N,E=N)=0.001.
类似地,P(M|A)和P(J|A)分别定量刻画了M和J如何依赖于A。变量B和E不依赖于其它变量,P(B)和P(E)给出它们的边缘分布。
上图中,有向图与这5个概率分布合在一起,就构成一个贝叶斯网,它是对联合概率分布的分解的直观表示。
贝叶斯网是一个有向无圈图,其中节点代表随机变量,节点间的边代表变量间的直接依赖关系。每个节点都附有一个概率分布,根节点X所附的是它的边缘分布P(X),非根节点X所附的是条件概率分布P(X∣π(X))P(X|\pi(X))P(X∣π(X))。

这里,我们用π(X)\pi(X)π(X)表示节点X的父节点集合,用an(X)an(X)an(X)表示X的祖先节点集合,用nb(X)nb(X)nb(X)表示X的邻居节点集合,用ch(X)ch(X)ch(X)表示X的子节点集合,用de(X)de(X)de(X)表示X的后代节点集合,用nd(X)nd(X)nd(X)表示X的非后代节点集合。

贝叶斯网可以从定性和定量两方面来理解。在定性层面,它用一个有向无圈图描述变量之间的依赖和独立关系。在定量层面,它则用条件概率分布刻画变量对其父节点的依赖程度。更具体地,假设贝叶斯网中的变量为X1,⋯,XnX_1,\cdots,X_nX1​,⋯,Xn​,那么把各变量所的概率分布相乘即得到联合分布,即贝叶斯网的链式规则:
P(X1,⋯,Xn)=∏i=1nP(Xi∣π(Xi))P(X_1,\cdots,X_n)=\prod_{i=1}^{n}P(X_i|\pi(X_i)) P(X1​,⋯,Xn​)=i=1∏n​P(Xi​∣π(Xi​))
其中,当π(Xi)=∅\pi(X_i)=\emptysetπ(Xi​)=∅时,P(Xi∣π(Xi))P(X_i|\pi(X_i))P(Xi​∣π(Xi​))即为边缘分布P(Xi)P(X_i)P(Xi​)。
贝叶斯网一方面是严格的数学语言,适合计算机处理;另一方面,它直观易懂,提供人脑推理过程的模型。因此贝叶斯网在不确定性推理和人工智能领域具有极其重要的基础性地位。

1.2.4 手工构造贝叶斯网

贝叶斯网有两种方法构造,一种是由具有领域知识的专家根据经验手工构造,一种是直接通过数据分析获得。在本专题的第三部分,将专门介绍如何通过机器学习的方法从数据中获得贝叶斯网。本节先介绍如何手工构造贝叶斯网,这包括确定网络结构和评估条件概率两个子任务。

1.2.4.1 确定网络结构

从上文所介绍的贝叶斯网概念,我们知道要确定贝叶斯网络结构,就是要确定如下内容:

  • 选定一组刻画问题的随机变量,并确定一个变量顺序a={X1,⋯,Xn}a=\{X_1,\cdots,X_n\}a={X1​,⋯,Xn​};
  • 从一个空图出发,按顺序a逐个将变量加入图G中;
  • 在加入变量XiX_iXi​时,G中的变量包括X1,⋯,Xi−1X_1,\cdots,X_{i-1}X1​,⋯,Xi−1​:
    • 利用问题的背景知识,在这些变量中选择一个尽可能小的子集π(Xi)\pi(X_i)π(Xi​),使得假设『给定π(Xi)\pi(X_i)π(Xi​),XiX_iXi​与G中的其它变量条件独立』合理;
    • 从π(Xi)\pi(X_i)π(Xi​)中的每一个节点添加一条指向XiX_iXi​的有向边。

下面仍以Alarm问题为例,选择三种变量顺序按照上述步骤来构造贝叶斯网。
顺序1:a1={B,E,A,M,J}a_1=\{B,E,A,M,J\}a1​={B,E,A,M,J}
构造过程如下图所示:

顺序2:a2={M,J,A,B,E}a_2=\{M,J,A,B,E\}a2​={M,J,A,B,E}
构造过程如下图所示:

顺序3:a3={M,J,E,B,A}a_3=\{M,J,E,B,A\}a3​={M,J,E,B,A}
构造过程如下图所示:

以上三种不同的变量顺序导致了不同的网络结构,不同的网络结构表示联合分布不同的分解方式,也意味着不同的复杂度。那应该按照什么原则来选择变量顺序呢?对该问题目前有三种看法:

  • 以模型的复杂度为标准,选择使得模型最简单的变量顺序;
  • 以条件概率评估的难易程度为标准。在Alarm例子中,如果选择a3a_3a3​顺序,则需要确定条件分布P(B|J,M,E),即已知发生地震、也接到来自John和Mary的电话时,对发生盗窃的概率。这个分布难以直观评估,因为人们很少会将这几件事同时联想到一起。而如果选择a1a_1a1​顺序,则所需概率分布较容易评估;
  • 以因果关系来决定变量顺序。原因在前,结果在后。实际应用中,因果关系往往能使网络结构简单、概率分布易于评估。

1.2.4.2 因果关系与贝叶斯网

在实际应用中,往往利用因果关系来确定贝叶斯网结构。在Alarm例子中,地震(E)和盗窃(B)是警铃响(A)的直接原因,警铃响(A)是Mary和John打电话的直接原因。这样,利用因果关系,很容易获得了按B、E、A、M、J顺序构造贝叶斯网结构。
利用因果关系建立的贝叶斯网中,变量间的边表示因果关系,而不仅是简单的概率依赖关系,这样的贝叶斯网称为贝氏因果网,简称因果网。构建因果网时,有两点需要注意:

  • 因果关系还没有一个广泛接受的严格定义。它到底时客观世界本身的属性,还是人的意识为了理解世界而创造出来的主观概念,学界还没有达成共识。
  • 有的因果关系非常明显,比如Alarm例子中的因果关系;有些因果关系却不明显,比如统计显示理工科女生明显少于男生,这是否就意味着性别差异影响人的理性思维能力?目前并没有确定的证据。又比如,多数医生会认为抽烟能导致肺癌,但烟草公司却辩解说『存在一个既诱发抽烟又导致癌症的基因』,即癌症的原因是这个基因,而不是抽烟,这个基因是天生的,基因已经决定了你会不会得癌症,戒烟并不能降低癌症。这两种观点将对应两个不同的因果模型,且都能解释吸烟与癌症间的统计关联关系。

在实际应用中,往往采用如下方式来判断因果关系:对变量X和Y,如果你去改变X的状态,会影响你对Y的信度,而反过来你去改变Y的状态,却不影响你对X的信度,则认为X是Y的原因。比如地震和警铃响之间的因果关系:你如果制造一次地震,你对警铃响的信度会加大,反过来,你拨弄响了警铃,你对地震是否发生的信度并不会改变,因此可认为地震时警铃响的原因。再比如抽烟和牙黄的因果关系:如果你强迫一个人抽一段时间的烟,则你对他牙黄的信度会加大,反过来,你将他的牙染为黄色,你对他是否吸烟的信度并不会因此而改变,因此可认为抽烟是牙黄的原因。

1.2.4.3 确定网络参数

贝叶斯网参数即各变量的概率分布,一般通过数据分析获得,也可以从问题的特性直接得到。
通过数据分析确定参数的案例
考虑某种基因遗传关系。假设基因a是隐性致病基因,对应的显性基因是A。当没有任何信息时,关于该疾病的基因型可能是以下三者之一:aa(患病)、Aa(携带者)、AA(正常)。根据基因遗传学,可以直接确定任意个体的基因型GSG_SGS​与它父母的基因型GF,GMG_F,G_MGF​,GM​之间的概率关系P(GS∣GF,GM)P(G_S|G_F,G_M)P(GS​∣GF​,GM​),如下图所示:

根据问题的特性确定参数的案例
假设一个噪音信道传递信息位U,信道的出错概率为0.1,为提高传输准确度,重复传输3次,接受方根据结构进行解码,并推测正确的取值。该过程可用如下图所示的贝叶斯网来表示。

图中所有变量均取二值,根据问题特性可确定网络参数。
对于信息位U,有:
P(U)={0.5,U=10.5,U=0P(U)= \left\{ \begin{aligned} 0.5, \quad U=1 \\ 0.5, \quad U=0 \end{aligned} \right. P(U)={0.5,U=10.5,U=0​
对于接受位YiY_iYi​,其条件概率分布由噪音信道的特性决定:
P(Yi∣U)={0.9,Yi=U0.1,Yi≠UP(Y_i|U)= \left\{ \begin{aligned} 0.9, \quad Y_i=U \\ 0.1, \quad Y_i\neq U \end{aligned} \right. P(Yi​∣U)={0.9,Yi​=U0.1,Yi​​=U​

1.2.4.4 减少网络参数

手工建立贝叶斯网时,需要耗费大量人力和时间来确定网络参数,因此有必要尽量减少参数个数,通常精简参数个数也有利于提高概率推理的质量。下面介绍两个方法来减少参数。
设变量Y有m个父节点X1,⋯,XmX_1,\cdots,X_mX1​,⋯,Xm​,条件分布P(Y∣X1,⋯,Xm)P(Y|X_1,\cdots,X_m)P(Y∣X1​,⋯,Xm​)刻画Y对其父节点的依赖关系,当所有变量均取二值时,它包含2m2^m2m个独立参数。为了减少参数个数,可假设条件分布具有某种规律,称为局部结构。常见的局部结构有因果机制独立和环境独立两种。
因果机制独立
因果机制独立指多个原因独立地影响同一个结果。在Alarm例子中,地震(E)和盗窃(B)都可以触发警铃(A),但这两者的机制不同,因此可假设地震和盗窃独立地影响警铃响。
通过因果机制独立,可以将参数个数从2m2^m2m降低为2m2m2m个。
环境独立
环境独立是指在特定环境下才成立的条件独立关系。一个环境(contex,上下文)是一组变量及其取值的组合。下图给出两个环境独立的例子。

左图中,母牛的产犊数量依赖于年龄,但无论公牛年龄多大,产犊数都是0。所以在『G=公牛』这个环境中,变量N与变量A总是独立的。由于这个环境独立关系,P(N|A,G)所包含的参数个数从2∣A∣(∣N∣−1)2|A|(|N|-1)2∣A∣(∣N∣−1)降低为(∣A∣+1)(∣N∣−1)(|A|+1)(|N|-1)(∣A∣+1)(∣N∣−1)。
右图中,一个人的收入一般来讲依赖于职业(J)、受教育程度(Q)和气候(W)。
假设对一个程序员,他的收入不依赖于气候,即在『J=程序员』这个环境找那个,I与W是独立的,有:
P(I∣J=程序员,Q,W)=P(I∣J=程序员,Q)P(I|J=程序员,Q,W)=P(I|J=程序员,Q) P(I∣J=程序员,Q,W)=P(I∣J=程序员,Q)
假设对一个农民,他的收入不依赖于受教育程度,即在『J=农民』这个环境中,I与Q时独立的,有:
P(I∣J=农民,Q,W)=P(I∣J=农民,W)P(I|J=农民,Q,W)=P(I|J=农民,W) P(I∣J=农民,Q,W)=P(I∣J=农民,W)
上述环境独立关系使得参数减少了(∣W∣−1)∣Q∣(∣I∣−1)+(∣Q∣−1)∣W∣(∣I∣−1)(|W|-1)|Q|(|I|-1)+(|Q|-1)|W|(|I|-1)(∣W∣−1)∣Q∣(∣I∣−1)+(∣Q∣−1)∣W∣(∣I∣−1)个。

贝叶斯网专题2:贝叶斯网基本概念相关推荐

  1. 贝叶斯网专题1:信息论基础

    文章目录 贝叶斯网专题前言 第一部分:贝叶斯网基础 1.1 信息论基础 1.1.1 预备数学知识:Jensen不等式 1.1.2 熵 1.1.3 联合熵.条件熵.互信息 1.1.4 交叉熵和相对熵(K ...

  2. 贝叶斯网专题12:参数学习之贝叶斯估计

    第一部分:贝叶斯网基础 1.1 信息论基础 1.2 贝叶斯网基本概念 1.3 变量独立性的图论分析 第二部分:贝叶斯网推理 2.1 概率推理中的变量消元方法 2.2 团树传播算法 2.3 近似推理 2 ...

  3. [work]从贝叶斯方法谈到贝叶斯网络

    0 引言 事实上,介绍贝叶斯定理.贝叶斯方法.贝叶斯推断的资料.书籍不少,比如<数理统计学简史>,以及<统计决策论及贝叶斯分析 James O.Berger著>等等,然介绍贝叶 ...

  4. 贝叶斯网络在计算机,贝叶斯网络的特性 - 浙江大学计算机学院.ppt

    贝叶斯网络的特性 - 浙江大学计算机学院 内容提纲 何谓贝叶斯网络? 贝叶斯网络的语义 条件分布的有效表达 贝叶斯网络中的精确推理 贝叶斯网络中的近似推理 课后习题.编程实现及研读论文 7.1 何谓贝 ...

  5. 朴素贝叶斯 半朴素贝叶斯_使用朴素贝叶斯和N-Gram的Twitter情绪分析

    朴素贝叶斯 半朴素贝叶斯 In this article, we'll show you how to classify a tweet into either positive or negativ ...

  6. java 稀疏贝叶斯算法_稀疏贝叶斯学习(SparseBayesianLearning).PDF

    稀疏贝叶斯学习(SparseBayesianLearning) 稀疏贝叶斯学习(Sparse Bayesian Learning) 张智林(Zhilin?Zhang)? z4zhang@ Depart ...

  7. 致敬贝叶斯以及自己对贝叶斯的一些见解

    记得大二的时候,概率论里面有全概率公式这么一个东西,可是当时仅仅为了应付考试并没有体会到贝叶斯的强大,接触机器学习之后,渐渐体会到贝叶斯的神奇,也能通过贝叶斯来解释更多的模型. 贝叶斯由来 与日常思维 ...

  8. 变分推断 | MATLAB实现VBMC变分贝叶斯蒙特卡洛模拟的贝叶斯推断

    变分推断 | MATLAB实现变分贝叶斯蒙特卡洛模拟的贝叶斯推断 目录 变分推断 | MATLAB实现变分贝叶斯蒙特卡洛模拟的贝叶斯推断 效果一览 基本介绍 研究内容 模型描述 模型设计 参考资料 效 ...

  9. 三种常用的朴素贝叶斯实现算法——高斯朴素贝叶斯、伯努利朴素贝叶斯、多项式朴素贝叶斯

    朴素贝叶斯 在机器学习中,朴素贝叶斯分类器是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单概率分类器. 朴素贝叶斯算法Naive Bayes定义中有两个关键定义:特征之间强假设独立和贝 ...

  10. 机器学习之贝叶斯(贝叶斯定理、贝叶斯网络、朴素贝叶斯)

    一.概率知识点复习 (1)条件概率 就是事件A在另外一个事件B已经发生条件下的发生概率.条件概率表示为P(A|B),读作"在B条件下A的概率". (2)联合概率 可以简单的理解为事 ...

最新文章

  1. 百万级分组大报表开发与呈现
  2. Spring MVC漏洞学习总结
  3. [转]通过创建一个位图的XY Chart来学习Android绘图类Rect,Paint,Bitmap,Canvas(附源码)...
  4. Digimeter 软件
  5. 全球科技界最鼓舞人心领袖揭晓!马斯克第一,马云第五
  6. Python交换两个变量的三种方法
  7. php运行出现Call to undefined function curl_init()解决方法
  8. linux system更好方法,Linux将程序添加到服务的方法(通用【但最好还是用systemd】)...
  9. node服务器中打开html文件的两种方法
  10. 图书馆的uml概念类图怎么画_设计模式:UML?设计原则?
  11. 202.linux系统相关函数
  12. 随想录(rt-patch和linux)
  13. java swing 图片上加热点_外卖图片品牌全靠P,4元成本料理包加热后,平台上20元卖出...
  14. python语言中print函数的作用_python中print()方法有什么
  15. android 常用输入法,[转载]Android 系统输入法的调用
  16. IOS-40-测试环境与正式环境的代码通过标示符来区分
  17. 防病毒必务宝典—计算机病毒专杀进程列表(转)
  18. JAVA基础语法 - 继承
  19. hi3519叠加OSD
  20. 宇视摄像机媒体流达到上限

热门文章

  1. 3.2 搭建一个属于自己的服务器
  2. javascript第六章
  3. 保护小学生这件事上,腾讯拿出全球最严防沉迷措施
  4. 文档-操作手册与用户手册的区别
  5. TiFlash运维漫谈
  6. 华为信号怎么测试软件,实地测试 信号强度是关键
  7. 原创:学习英语小助手(阅读粘贴的英文,使用MVVM)
  8. 中国邮政储蓄银行计算机招聘,中国邮政储蓄银行招聘计算机专业人员试题
  9. 【数据库06】web应用程序开发的任督二脉
  10. WebAPI+Form表单上传文件