贝叶斯网络结构学习方法
文章目录
- 1. 完备数据的结构学习
- 基于评分搜索
- 定义
- 评分函数
- 基于贝叶斯统计的评分
- K2评分
- BD(Bayesian Dirichlet)评分
- BDeu(Bayesian Dirichlet eu)评分
- 基于信息理论的评分
- MDL评分函数
- AIC评分函数
- MIT评分函数
- 搜索方法
- K2算法
- 爬山(hillclimbing)算法
- GES (greedy equivalent search)算法
- 基于约束|依赖统计
- 基于分解
- 基于Markov blanket
- 基于空间结构限制
- 2. 不完备数据结构学习
- 参考
1. 完备数据的结构学习
基于评分搜索
定义
基于评分搜索的方法将BN结构学习视为组合优化问题;
- 首先通过定义评分函数对BN结构空间中的不同元素与样本数据的拟合程度进行度量
- 然后利用搜索算法确定评分最高的网络结构,即与数据拟合最好的网络结构
BN结构学习可定义为优化模型:
OM=(G,Ω,F)OM=(G, \Omega, F)OM=(G,Ω,F)
G:候选网络结构搜索空间,它定义了样本数据集D中所有变量(节点)之间可能连接关系的网络结构集合;
Ω\OmegaΩ:网络变量之间需要满足的约束条件集合,最基本的约束是所有节点间的连接构成一个有向无环图;
F:评分函数,表示从搜索空间G到实数集R的一个映射,函数的极值点即为网络的最优结构.
Robinson等证明了包含n个节点可能的BN结构数目f(n)f(n)f(n):
f(n)=∑i=1nn!i!(n−i)!2i(n−i)f(n−i)f(n)=\sum^n_{i=1}\frac{n!}{i!(n-i)!}2^{i(n-i)}f(n-i)f(n)=i=1∑ni!(n−i)!n!2i(n−i)f(n−i)
可见,随着变量数目的增多,搜索空间的维数呈 指数级 增长,因此,评分函数和搜索策略是影响评分搜索算法的主要因素.
评分函数
在BN结构学习的框架中,结构G和参数θG\theta_GθG被视为随机变量;
假设数据集D=(d1,d2,...,dm)D=(d_1,d_2, . . ., d_m)D=(d1,d2,...,dm)是关于n
个变量{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn}的样本;
G的可能取值包括所有以{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn}为节点的有向无环图。
给定结构G,变量θG\theta_GθG的可能取值是与G对应的参数值。
结构先验分布:P(G)P(G)P(G)
结构确定之后, θG\theta_GθG 的参数先验分布:P(θG)P(\theta_G)P(θG)
评分函数的输入与输出:
"""
input:Vi:某一变量(属性|特征)pa(Vi):Vi的父节点集合,第一次调用时候为 emptyD:数据集
output:pa(Vi):此次评分中Vi分数最高的父节点集合score:评分
"""
def Ranking(Vi,pa(Vi),D):passreturn score,pa(Vi)
基于贝叶斯统计的评分
假设数据集D是关于样本变量{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn} 完整独立同分布数据。
贝叶斯评分的主要思想是给定先验知识和样本数据条件下,选择一个后验概率值最大的网络结构,即:
1-1
G∗=argmaxGP(G∣D)G^* = \arg max_GP(G|D)G∗=argmaxGP(G∣D)
重点是P(G∣D)P(G|D)P(G∣D),又根据贝叶斯定理:
1-2
P(G∣D)=P(D∣G)P(G)P(D)P(G|D)=\frac{P(D|G)P(G)}{P(D)}P(G∣D)=P(D)P(D∣G)P(G)
P(G,D)=P(G∣D)P(D)=P(D∣G)P(G)P(G,D)= P(G|D)P(D)=P(D|G)P(G)P(G,D)=P(G∣D)P(D)=P(D∣G)P(G)
P(D)P(D)P(D)已知而且不依赖P(G)P(G)P(G),所以P(G∣D)P(G|D)P(G∣D)可转换为:
1-3
logP(G,D)=logP(D∣G)+logP(G)\log P(G,D) = \log P(D|G) + \log P(G)logP(G,D)=logP(D∣G)+logP(G)
则:
1-4
G∗=arglogP(D∣G)+logP(G)G^* = \arg \log P(D|G)+\log P(G)G∗=arglogP(D∣G)+logP(G)
P(G)P(G)P(G)是结构先验分布,一般会假设它是某种分布,ex:均匀分布
之后展开 P(D∣G)P(D|G)P(D∣G) (称为边缘似然函数)。
1-5
P(D∣G)=∫P(D∣G,θG)p(θG∣G)dθGP(D|G)=\int P(D|G,\theta_G)p(\theta_G|G) d \theta_GP(D∣G)=∫P(D∣G,θG)p(θG∣G)dθG
K2评分
假设数据集D是关于样本变量{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn} 完整独立同分布数据。G是关于变量集{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn}的BN结构,并且p(θG∣G)p(\theta_G|G)p(θG∣G)服从均匀分布。
可知如下K2
评分:
1-6
FK2(G∣D)=logP(G)+∑i=1n∑j=1qi{log(ri−1)!(mij∗+ri−1)!∑k=1rilog(mijk!)}F_{K2}(G|D)=\log P(G) + \sum_{i=1}^n\sum_{j=1}^{q_i}\{\log\frac{(r_i-1)!}{(m_{ij*}+r_i-1)!}\sum_{k=1}^{r_i} \log (m_{ijk}!)\}FK2(G∣D)=logP(G)+i=1∑nj=1∑qi{log(mij∗+ri−1)!(ri−1)!k=1∑rilog(mijk!)}
当结构的先验分布为均匀分布时候,logP(G)=0\log P(G)=0logP(G)=0
D:数据集
G:关于变量集{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn}的BN结构
n:样本变量数目
i: 第i
个X变量,XiX_iXi
j: XiX_iXi父节点的第j
个取值
k:XiX_iXi的第k
个取值
pa(Vi):Xipa(V_i):X_ipa(Vi):Xi的父节点集合 ???
qi:q_i:qi:节点 XiX_iXi 的父节点的取值数目
ri:Xir_i:X_iri:Xi 取值数目,(vi1,vi1,...,viri)(v_{i1}, v_{i1}, ..., v_{ir_i})(vi1,vi1,...,viri)
mijk:m_{ijk}:mijk:表示节点 XiX_iXi 取值为 vikv_{ik}vik ,并且 XiX_iXi 的父节点为第j
个取值时候,对应的case
记录数目;(NOTE:i
:第i个变量,j
:第i个变量XiX_iXi对应的父节点第j个取值,k
:XiX_iXi的第k个取值)
mij∗=∑k=1rilog(mijk)m_{ij*}=\sum_{k=1}^{r_i} \log (m_{ijk})mij∗=∑k=1rilog(mijk):包含节点 XiX_iXi 的所有取值,并且 XiX_iXi 的父节点第j
个取值时,对应的case
记录数目例子链接
参考文章(知乎_抓好污水治理)
这句话很内核了:
对于每一种结构,统计所有可能组合的观测值在数据集中出现的次数,如结构2:x1=0, x3=0出现了10次,x1=1, x3=2出现了2次等等。然后利用这些统计信息计算这种结构的得分(一大堆推导公式,最后得出此得分与P(贝叶斯网络结构|数据集)正相关)。这个得分的含义就是得分越高,这个数据集下出现此结构的概率越高。然后挑选最大得分的结构作为此变量的结构。用此方法得出了每个变量的父节点,这样就得出了整体的贝叶斯网络结构。
参考文章(CSDN_jbb0523)
贝叶斯网络结构学习之K2算法(基于FullBNT-1.0.4的MATLAB实现)
[参考文献]
Cooper, G. F., & Herskovits, A Bayesian Method for the Induction of Probabilistic Networks from Data. E. (1992). Machine Learning, 9(4), 309–347. doi:10.1023/a:1022649401552
Note:网上的信息太乱了,很多参数含义都解释的不同,最好看原文
BD(Bayesian Dirichlet)评分
假设数据集D是关于样本变量{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn} 完整独立同分布数据。G是关于变量集{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn}的BN结构,并且p(θG∣G)p(\theta_G|G)p(θG∣G)服从Dirichlet
分布。
p(θG∣G)∝∏i=1n∏j=1qi∏k=1riθijkαijk−1p(\theta_G|G) \propto \prod^n_{i=1} \prod^{q_i}_{j=1} \prod^{r_i}_{k=1}\theta_{ijk}^{\alpha_{ijk}-1}p(θG∣G)∝i=1∏nj=1∏qik=1∏riθijkαijk−1
可知如下BD
评分:
FBD(G∣D)=logP(G)+∑i=1n{∑j=1qi{logΓ(αij∗)Γ(αij∗+mij∗)+∑k=1rilogΓ(αijk+mijk)Γ(αij∗)}F_{BD}(G|D)=\log P(G) + \sum_{i=1}^n\{\sum_{j=1}^{q_i}\{\log\frac{\Gamma(\alpha_{ij*})}{\Gamma(\alpha_{ij*}+m_{ij*})}+\sum_{k=1}^{r_i} \log \frac{\Gamma(\alpha_{ijk}+m_{ijk})}{\Gamma(\alpha_{ij*})}\}FBD(G∣D)=logP(G)+i=1∑n{j=1∑qi{logΓ(αij∗+mij∗)Γ(αij∗)+k=1∑rilogΓ(αij∗)Γ(αijk+mijk)}
D:数据集
G:关于变量集{X1,X2,...,Xn}\{X_1, X_2,..., X_n\}{X1,X2,...,Xn}的BN结构
n:样本变量数目
qi:q_i:qi:节点 XiX_iXi 的父节点的取值数目
ri:Xir_i:X_iri:Xi 取值数目,(vi1,vi1,...,viri)(v_{i1}, v_{i1}, ..., v_{ir_i})(vi1,vi1,...,viri)
αijk:\alpha_{ijk}:αijk:Dirichlet
分布中的超参数取值
αij∗=∑k=1riαijk\alpha_{ij*} = \sum_{k=1}^{r_i}\alpha_{ijk}αij∗=∑k=1riαijk
mijk:m_{ijk}:mijk:表示节点 XiX_iXi 取值为 vikv_{ik}vik ,并且 XiX_iXi 的父节点为第j
个取值时候,对应的case
记录数目;(NOTE:i:第i个变量,j:第i个变量XiX_iXi对应的父节点第j个取值,k:XiX_iXi的第k个取值)
mij∗=∑k=1rilog(mijk)m_{ij*}=\sum_{k=1}^{r_i} \log (m_{ijk})mij∗=∑k=1rilog(mijk):包含节点 XiX_iXi 的所有取值,并且 XiX_iXi 的父节点第j
个取值时,对应的case
记录数目
pa(Xi)pa(X_i)pa(Xi):XiX_iXi的父节点集合
θijk:\theta_{ijk}:θijk:???
Γ:\Gamma:Γ:gamma函数
迪利克雷分布介绍_知乎
所有的超参数值αijk=1\alpha_{ijk}=1αijk=1时,BD
评分退化为K2
评分。
通常情况下,我们说的分布都是关于某个参数的函数,把对应的参数换成一个函数(函数也可以理解成某分布的概率密度)就变成了关于函数的函数
BDeu(Bayesian Dirichlet eu)评分
BD公式中的超参数 αijk=αP(Xi=k,pa(Xi)=j∣G)\alpha_{ijk}=\alpha P(X_i=k,pa(X_i)=j | G)αijk=αP(Xi=k,pa(Xi)=j∣G)时候,P(.∣G)P(.|G)P(.∣G)表示网络G的先验分布,α\alphaα 表示先验样本等价量。
P(Xi=k,pa(Xi)=j∣G)=1riqiP(X_i=k,pa(X_i)=j | G) = \frac{1}{r_iq_i}P(Xi=k,pa(Xi)=j∣G)=riqi1,即结构先验信息服从均匀分布。
可知如下BDeu
评分:
FBDeu(G∣D)=logP(G)+∑i=1n∑j=1qi{logΓ(αqi)Γ(mij∗+αqi)}+∑k=1rilogΓ(mijk+αriqi)Γ(αriqi)F_{BDeu}(G|D)=\log P(G) + \sum_{i=1}^n\sum_{j=1}^{q_i}\{\log\frac{\Gamma(\frac{\alpha}{q_i})}{\Gamma(m_{ij*}+\frac{\alpha}{q_i})}\}+\sum_{k=1}^{r_i} \log \frac{\Gamma(m_{ijk}+\frac{\alpha}{r_iq_i})}{\Gamma(\frac{\alpha}{r_iq_i})}FBDeu(G∣D)=logP(G)+i=1∑nj=1∑qi{logΓ(mij∗+qiα)Γ(qiα)}+k=1∑rilogΓ(riqiα)Γ(mijk+riqiα)
基于信息理论的评分
基于信息理论的评分函数主要是利用编码理论和信息论中的最小描述长度(Minimum Description Length, MDL)原理来实现的.其基本思想源自对数据的存储。
假设D是一组给定的实例数据,如果要对其进行保存,为了节省存储空间,一般采用某种模型对其进行编码压缩,然后再保存压缩后的数据;另外,为了在需要的时候可以完全恢复这些实例数据,要求对所使用的模型进行保存;
因此,需要保存的数据长度=压缩后的数据长度+模型的描述长度,该长度称为总的描述长度。
MDL原理就是要求选择总描述长度最小的模型。按照MDL原理,BN结构学习就是要找到使得网络的描述长度和样本的编码长度之和最小的图模型。
这意味着MDL评分准则趋向于寻找一个结构较简单的网络,实现网络精度与复杂度之间的均衡。一般利用参数个数作为网络结构复杂度的惩罚函数:
2-1:
C(G)=12logm∑i=1n(ri−1)qiC(G) = \frac{1}{2}\log m\sum^n_{i=1}(r_i-1)q_iC(G)=21logmi=1∑n(ri−1)qi
m:数据集D中的样本总量;
∑i=1n(ri−1)qi\sum^n_{i=1}(r_i-1)q_i∑i=1n(ri−1)qi:网络中包含的参数总量
采用海明码表示压缩后的数据长度,就是关于数据D和模型的对数似然:
2-2:
LLD(G)=∑j=1n∑j=1qi∑k=1rimijklog(mijkmij∗)LL_D(G)=\sum^n_{j=1}\sum^{q_i}_{j=1}\sum^{r_i}_{k=1}m_{ijk}\log(\frac{m_{ijk}}{m_{ij*}})LLD(G)=j=1∑nj=1∑qik=1∑rimijklog(mij∗mijk)
MDL评分函数
则由2-1、2-2可知,得到相应的MDL评分函数
2-3
FMDL(G∣D)=LLD(G)−C(G)F_{MDL}(G|D)=LL_D(G)-C(G)FMDL(G∣D)=LLD(G)−C(G)
2-4
FMDL(G∣D)=∑i=1n∑j=1qi∑k=1rimijklog(mijkmij∗)−12logm∑i=1n(ri−1)qiF_{MDL}(G|D)=\sum^n_{i=1}\sum^{q_i}_{j=1}\sum^{r_i}_{k=1}m_{ijk}\log(\frac{m_{ijk}}{m_{ij*}})- \frac{1}{2}\log m\sum^n_{i=1}(r_i-1)q_iFMDL(G∣D)=i=1∑nj=1∑qik=1∑rimijklog(mij∗mijk)−21logmi=1∑n(ri−1)qi
m:数据集D中的样本总量;
∑i=1n(ri−1)qi\sum^n_{i=1}(r_i-1)q_i∑i=1n(ri−1)qi:网络中包含的参数总量
AIC评分函数
MDL评分函数不依赖于先验概率;对给定的充分大的独立样本而言,具有最大MDL分值的网络可以任意接近于抽样分布;当实例数据D服从多项分布时,MDL评分函数等于BIC评分函数.因此对公式(2-4)做进一步的简化,得到AIC评分函数:
2-5
FAIC(G∣D)=∑i=1n∑j=1qi∑k=1rimijklog(mijkmij∗)−∑i=1n(ri−1)qiF_{AIC}(G|D)=\sum^n_{i=1}\sum^{q_i}_{j=1}\sum^{r_i}_{k=1}m_{ijk}\log(\frac{m_{ijk}}{m_{ij*}})- \sum^n_{i=1}(r_i-1)q_iFAIC(G∣D)=i=1∑nj=1∑qik=1∑rimijklog(mij∗mijk)−i=1∑n(ri−1)qi
MIT评分函数
MDL评分函数中,对网络的惩罚项用整个网络包含的参数以及样本数据量来表示,Campos结合贝叶斯网络的可分解性,用网络的局部结构复杂度作为惩罚项,提出一种基于互信息和卡方分布 的 MIT ( Mutual Information Tests) 评分函数.
2-6
FMIT(G∣D)=∑i=1,Pa(X−i)!=∅n(2mMID(Xi,Pa(Xi))−maxσi∑j=1Siχα,liσi(j))F_{MIT}(G|D)=\sum^n_{i=1,Pa(X-i)!=\empty}(2mMI_D(X_i,Pa(X_i))-\max_{\sigma_i }\sum^{S_i}_{j=1}\chi_{\alpha,l_{i\sigma_i(j)}})FMIT(G∣D)=i=1,Pa(X−i)!=∅∑n(2mMID(Xi,Pa(Xi))−σimaxj=1∑Siχα,liσi(j))
MID(Xi,Pa(Xi))MI_D(X_i,Pa(X_i))MID(Xi,Pa(Xi)):XiX_iXi与其父变量之间互信息
pa(Xi)pa(X_i)pa(Xi):XiX_iXi的父节点集合
SiS_iSi:XiX_iXi父节点的个数
χα,liσi(j)\chi_{\alpha,l_{i\sigma_i(j)}}χα,liσi(j):表示置信度为α\alphaα,自由度为liσi(j)l_{i\sigma_i(j)}liσi(j)的卡方分布值。
搜索方法
求出每个变量评分函数最大的父变量集。
- K2算法
- 爬山算法
- GES算法
- 基于进化计算的方法
K2算法
K2算法使用贪心搜索去获取最大值。首先假设随机变量是有顺序的,如果XiX_iXi在XjX_jXj之前,那么不能存在从XjX_jXj到XiX_iXi的边。同时假设每个变量最多的父变量个数为u
。每次挑选使评分函数最大的父变量放入集合,当无法使评分函数增大时,停止循环,具体算法如下,其中Pred(Xi)表示顺序在Xi之前的变量。
- 贪婪搜索
- CH评分衡量结构优劣性
- 利用结点序 ρ\rhoρ 以及正整数 μ\muμ 来限制搜索空间的大小
结点序 ρ\rhoρ怎么确定?
Pred(Vi)Pred(V_i)Pred(Vi):根据节点顺序(node ordering)排在ViV_iVi前面的节点
K2算法由Kutato进化而来
爬山(hillclimbing)算法
爬山算法是一种简单的贪心搜索算法,该算法每次从当前解的临近解空间中选择一个最优解作为当前解,直到达到一个局部最优解。爬山算法实现很简单,其主要缺点是会陷入局部最优解,而不一定能搜索到全局最优解。假设C点为当前解,爬山算法搜索到A点这个局部最优解就会停止搜索,因为在A点无论向那个方向小幅度移动都不能得到更优的解。
- 局部操作(加边,减边,删边),评分高低作为是否选择该操作的标准。
- 通过贪婪选择来判断是否对模型结构进行更新。
# 爬山法伪代码
Procedure HillClimbing():old = getInitial() # get initial feasible solution xwhile(the stopping condition is not reached):for 加边,减边,删边 操作后的 newG: new= localSearch(N(x)); # select the optimal solution from the neighborhood of x as x'if(old <= new)old = newelsereturn oldend
爬山法
GES (greedy equivalent search)算法
- 从一个空图出发,采用两个不同的搜索阶段来寻找评分最高的结构。
- 采用贪心前向搜索法( GFS )来不断地在空图中加边,直至评分值无法提高为止;
- 利用贪心反向搜索法( greedy backward search, GBS)在图中不断地删除边,直至评分值不能提高为止。
基于约束|依赖统计
基于依赖统计分析的方法通常利用统计或信息论的方法分析变量间的依赖关系,从而获得最优的网络结构。而节点之间的依赖关系通常由两点的互信息或者条件互信息决定。
互信息
设 XiX_iXi 、XjX_jXj 为 X 上的两个变量,xix_ixi 、xjx_jxj分别为变量XiX_iXi 、XjX_jXj 的取值,设 C 是 X 中非 XiX_iXi 、XjX_jXj 变量组成的集合,则XiX_iXi 、XjX_jXj 关于 C 的条件互信息可以表示为:
3-1
I(Xi,Xj∣C)=∑xi,xj,cP(xi,xj,c)logP(xi,xj,c)P(c)P(xi,c)P(xj,c)I(X_i,X_j|C)=\sum_{x_i,x_j,c}P(x_i,x_j,c)\log\frac{P(x_i,x_j,c)P(c)}{P(x_i,c)P(x_j,c)}I(Xi,Xj∣C)=xi,xj,c∑P(xi,xj,c)logP(xi,c)P(xj,c)P(xi,xj,c)P(c)
I(Xi,Xj∣C)I(X_i,X_j|C)I(Xi,Xj∣C)的值越大,表示变量XiX_iXi 、XjX_jXj 关于C的依赖关系越大
I(Xi,Xj∣C)I(X_i,X_j|C)I(Xi,Xj∣C)小于设定的阈值ξ\xiξ,则表示XiX_iXi 、XjX_jXj 关于C条件独立,故3-1也可以表示节点之间的条件独立性测试
SGS 算法
是由 Spirtes 等人提出的一种典型的利用节点间条件独立性来确定网络结构的方法,算法利用特定的因果模型解决了统计意义的独立性不能适用于非测量性变量关系的问题,最终得出整个网络结构。
PC 算法
是在 SGS 算法的基础上,利用 稀疏网络 中节点不需要高阶独立性检验的特点,提出了一种削减策略:
依次由 0 阶独立性检验开始到高阶独立性检验,对初始网络中节点之间的连接进行削减。
此种策略有效地从稀疏模型中建立贝叶斯网络,解决了 SGS 算法随着网络中节点数的增长复杂度呈指数倍增长的问题。
TPDA 算法
为了进一步减少计算的复杂度,把结构学习过程分三个阶段进行:
- 起草(
drafting
)网络结构,利用节点之间的互信息得到一个初始的网络结构; - 增厚(
thickening
)网络结构,在 步骤1 网络结构的基础上计算网络中不存在连接节点间的条件互信息,对满足条件的两节点之间添加边; - 削减(
thinning
)网络结构,计算 步骤2 网络结构中边的条件互信息,删除不满足条件的边。
现阶段对于基于依赖统计的方法的研究可分为基于分解的方法、基于 Markov blanket 的方法和基于结构空间限制的方法三种
基于分解
基于Markov blanket
基于空间结构限制
2. 不完备数据结构学习
- 所有评分函数无法分解成只与局部结构相关的因式
- 需要执行非线性的优化过程
- 为评判当前网络结构必须评估其所有的“邻居”
EM算法
- 高效地从不完整数据条件下学习网络参数,具有较高的精度。
- 一般般是收敛到局部最优结构。
SEM算法
- 只对当前选中的网络结构使用EM算法,进行概率分布评估;对于未被选中的网络并不使用EM算法。
- 每评价一个当前网络的“邻居”集,只调用一次EM算法,节省了计算开销
参考
贝叶斯网络结构学习(知乎)
2013 贝叶斯网络结构学习与推理研究 朱明敏
2015 贝叶斯网络结构学习综述 李硕豪
2017 贝叶斯网络结构学习与应用研究 曹杰
贝叶斯网络结构学习方法相关推荐
- 【因果学习】贝叶斯网络结构学习方法
随机对照试验是发现因果关系的黄金准则,然而现实世界中很多问题往往由于道德伦理的原因不允许我们设置干预进行试验,这就引发了在观测数据上学习因果关系的需求.贝叶斯网络是概率论与图论相结合的产物,它用图 ...
- 贝叶斯网络结构学习之K2算法(基于FullBNT-1.0.4的MATLAB实现)
题目:贝叶斯网络结构学习之K2算法(基于FullBNT-1.0.4的MATLAB实现) 有关贝叶斯网络结构学习的一基本概念可以参考:贝叶斯网络结构学习方法简介 有关函数输入输出参数的解释可以参考:贝叶 ...
- 贝叶斯网络结构学习(基于BDAGL工具箱的MATLAB实现)
题目:贝叶斯网络结构学习(基于BDAGL工具箱的MATLAB实现) 有关贝叶斯网络结构学习的一基本概念可以参考:贝叶斯网络结构学习方法简介 有关函数输入输出参数的解释可以参考:贝叶斯网络结构学习若干问 ...
- Nat. Commun. | 识别药物靶点的贝叶斯机器学习方法
今天给大家介绍的是2019年11月发表在Nature Communications的一篇文章,"A Bayesian machine learning approach for drug t ...
- 基于搜索的贝叶斯网络结构学习算法-K2
部分内容取自:[Cooper and Herskovits, 1991] Cooper, G. and Herskovits, E. (January, 1991). A Bayesian metho ...
- 贝叶斯网络结构学习若干问题解释
题目:贝叶斯网络结构学习若干问题解释 本篇主要为后续讲解具体结构学习算法打基础,共解释以下几个问题: 1.用于贝叶斯网络结构学习的数据集如何存储? 2.学得的贝叶斯网络结构如何存储? 3.什么是节点顺 ...
- 贝叶斯网络结构学习之连续参数处理方法
题目:贝叶斯网络结构学习之连续参数处理方法 注:本文有更新,参见<有关属性离散化算法CACC的补充说明>和<有关属性离散化算法CACC的再次补充说明>.以下为原文: 首先必须说 ...
- R语言做贝叶斯网络结构学习
文章目录 本文使用pcalg包做贝叶斯网络结构的学习 #实例分析 ##pcalg包的安装 安装pcalg包时由于有些依赖包已经被CRAN撤掉,所以安装起来有些技巧. 以下是安装代码: install. ...
- 贝叶斯网络学习Python环境搭建(pgmpy)
文章目录 相关学习链接 pgmpy安装 torch安装 安装步骤 问题 相关学习链接 贝叶斯结构学习基础 贝叶斯网络结构学习方法总结 贝叶斯网络实战(泰坦尼克) pgmpy安装(python的BN库) ...
最新文章
- autofs一个神奇的服务
- mysql中如何删除表中int约束,MySQL中的约束,添加约束,删除约束,以及其他修饰
- 【转】Zookeeper 安装和配置
- 开源中国 开源世界2018_2018年教室中的开源激增
- 如何在UIimageview里显示一张图片里的某一部分
- 蓝桥杯 ADV-120算法提高 6-17复数四则运算
- 小程序向webview传参_微信小程序(1)——web-view和小程序间传递参数、发送消息...
- 集体智慧编程4-优化
- java 文件转换成二进制_java实现文件转换成二进制存储与取出
- c语言 复制到编辑页面 乱码,富文本编辑器的复制word到浏览器发生乱码(vue+wangEditor)...
- 简述有监督学习、半监督学习、无监督学习、弱监督学习
- java总结一:JSON转对象
- 2018年,NB-IoT这盘大棋该怎么下?
- JAVA集合专题+源码分析
- 基础IT技术(Java,c++等)技术学习资料300篇
- Memristor+Matlab 仿真(三)
- 树莓派3B+配置WiFi(基于raspbian系统)
- 前端面试自我介绍的技巧都有哪些?
- nand flash基础——基本操作
- openmv出现File corrupted,out of memery,invalid syntax等其他问题解决方法
热门文章
- apt java8_Ubuntu 18.04安装Java JDK8三种方式
- ssm mysql增删改查_SSM配置并实现简单的数据库增删改查操作
- 漫谈CGI FastCGI WSGI
- MySQL主键和外键使用及说明
- spring boot——MockMvc的用法 (SpringBoot 1.5.18)下测试通过
- 【9603】最大整数
- Beta版本测试报告以及Beta版本发布说明
- ScrollView嵌套StackView提示需要宽度和高度限制
- matlab 局部图放大或缩小
- 基于visual Studio2013解决C语言竞赛题之1031猜数