贝叶斯信念网络Bayes Belief network
贝叶斯信念网络Bayes Belief network
文章目录
- 贝叶斯信念网络Bayes Belief network
- 1. BBN
- 2. 两大成分
- 3. 先验概率
- 3.1.1 计算患心脏病的概率
- 3.1.2 计算血压高的概率
- 4. 条件概率
- 4.2.1 基于孩子结点,父母结点的条件概率
- 4.2.2 基于父母结点,孩子结点的条件概率
- 4.2.3 结点之间独立
- 5. 网络拓扑
- 5.1 未知网络拓扑
- 5.2 某些变量隐藏
- 梯度下降算法
- EM算法Expectation&Maximization
1. BBN
别称:贝叶斯网络、信念网络、概率网络
信念:相信专家给的概率
网络拓扑:
- 数据构造
- 专家构造
可能不需要学习数据,整个网络可能都是由专家经验产生的
朴素贝叶斯:特征(属性)之间互相独立
但是特征之间不一定一定独立,会存在一些依赖。怎么解决?
联合条件概率分布
2. 两大成分
- 有向无环图
有向边:表示特征之间的关系
结点之间关系:
- 独立(无关系)
- 父结点、孩子结点:父结点是当前结点的因,孩子结点是当前结点的果
- 条件概率表CPT(Condition probability table)
表中的发生概率来自于专家
3. 先验概率
3.1.1 计算患心脏病的概率
α:\alpha :α: E的可能取值
β:\beta:β: D的可能取值
P(E=α,D=β)=P(E=α)P(D=β):P(E=\alpha ,D= \beta) = P(E=\alpha )P(D= \beta) :P(E=α,D=β)=P(E=α)P(D=β):E和D相互独立
3.1.2 计算血压高的概率
4. 条件概率
4.2.1 基于孩子结点,父母结点的条件概率
p(A|B)p(B) = p(AB)
p(B|A)p(A) = p(AB)
得出:
p(A∣B)p(B)p(B∣A)p(A)=1\frac{p(A|B)p(B)}{p(B|A)p(A) } = 1p(B∣A)p(A)p(A∣B)p(B)=1
p(A∣B)=p(B∣A)p(A)p(B)p(A|B) = \frac{p(B|A)p(A)}{p(B)}p(A∣B)=p(B)p(B∣A)p(A)
4.2.2 基于父母结点,孩子结点的条件概率
4.2.3 结点之间独立
p(A∣B)p(B)=p(AB)=p(A)p(B)p(A|B)p(B) = p(AB) = p(A)p(B) p(A∣B)p(B)=p(AB)=p(A)p(B)
p(A∣B)=p(A)p(A|B) = p(A) p(A∣B)=p(A)
5. 网络拓扑
- 网络拓扑未知
- 网络拓扑已知,并且网络内部可观测
- 网络拓扑已知,并且网络内部某些变量隐藏(缺失)
1:需要构造网络拓扑
3:需要训练网络,用以完整网络
5.1 未知网络拓扑
- 一些学习算法可通过训练数据来产生网络拓扑
- 专家构造
5.2 某些变量隐藏
有不同的方法来训练信念网络,比如梯度下降法(迭代的方式)Gradient descent。
梯度下降算法
目的:找出最大化该函数的权重的集合
- 计算梯度
∂lnPw(D)∂wijk=∑d=1∣D∣P(Yi=yij,Ui=uik∣Xd)wijk\frac{\partial lnP_w(D)}{\partial w_{ijk}}= \sum^{|D|}_{d=1}\frac{P(Y_i=y_{ij},U_i=u_{ik}| X_d)}{w_{ijk}}∂wijk∂lnPw(D)=d=1∑∣D∣wijkP(Yi=yij,Ui=uik∣Xd)
D:数据集
XdX_dXd:训练元组,XdX_dXd的概率记为 p(可使用贝叶斯网路推理的标准算法求得)
- 沿梯度方向前进一小步
wijk=wijk+l∂lnPw(D)∂wijkw_{ijk} = w_{ijk} + l\frac{\partial lnP_w(D)}{\partial w_{ijk}}wijk=wijk+l∂wijk∂lnPw(D)
lll:表示步长的学习率(一般取小点,便于收敛)
- 重新规格化权重
wijkw_{ijk}wijk是概率值,必须在[0,1]之间并且对于所有的i、k,∑jwijk必须等于1\sum_jw_{ijk}必须等于1∑jwijk必须等于1。权重更新之后(第二步之后)可以对其规格化来保证上述条件
wijk恒等于p(Yi=yij∣Ui=uik)w_{ijk} 恒等于 p(Y_{i}=y_{ij} | U_i=u_{ik})wijk恒等于p(Yi=yij∣Ui=uik)
wijkw_{ijk}wijk:有双亲(Ui=uikU_i=u_{ik}Ui=uik)的 变量(Yi=yijY_i=y_{ij}Yi=yij)的 CPT表目,可以看作权重,是对数据建模的重要参数
变量:网路中的结点
EM算法Expectation&Maximization
我们一直假设训练样本的所有的属性变量的值都已经被观测到(训练样本没有缺失),但是现实生活中往往会遇到“不完整”的训练样本(某个属性变量的值缺失)。存在这种“未观测(缺失)”的变量情况下,是否仍然能对模型参数进行估计呢?
未观测变量 = 隐变量 = 缺失变量
LL(θ∣X,Z)=lnP(X,Z∣θ)LL(\theta|X,Z) = lnP(X,Z|\theta) LL(θ∣X,Z)=lnP(X,Z∣θ)
X:已观测变量集合
Z:隐变量集合
θ\thetaθ:模型参数
因为Z
是隐变量,不可直接求得上式。
但是可以通过计算出Z
的期望,之后最大化已观测数据的对数似然(在这儿叫:边际似然)
LL(θ∣X)=lnP(X∣θ)=ln∑ZP(X,Z∣θ)LL(\theta|X) = lnP(X | \theta) = ln\sum_ZP(X,Z | \theta) LL(θ∣X)=lnP(X∣θ)=lnZ∑P(X,Z∣θ)
公式7.35公式7.35公式7.35
EM算法是常用的估计参数隐变量的利器,它是一种迭代式的方法,基本思想是:
若参数θ\thetaθ已知,则可根据训练数据推断出最优隐变量Z的值;
反之,若Z的值已知,则可方便地对参数θ\thetaθ做极大似然估计。
依照基本思想,我们可以给一个θ0\theta_0θ0初始值,然后对公式7.35进行迭代:
EM原型:
- 给一个θ0\theta_0θ0初始值
- 基于θt\theta^tθt推断隐变量Z的期望,记为ZtZ^tZt;
- 基于X(已观测变量)和 ZtZ^tZt 对 θ\thetaθ 进行极大似然估计,获得 θt+1\theta^{t+1}θt+1。
- 重复2、3,直到获得局部最优解。
若不是取Z的期望,而是基于θt\theta^tθt计算隐变量Z的概率分布P(Z∣X,θt)P(Z | X,\theta^t)P(Z∣X,θt),EM的两个步骤:
- E:基于θt\theta^tθt推断隐变量分布P(Z∣X,θt)P(Z | X,\theta^t)P(Z∣X,θt),并且计算对数似然LL(θ∣X,Z)LL(\theta|X,Z)LL(θ∣X,Z)关于Z的期望。
- M:寻找参数最大化期望似然,即:θt+1=argmaxθQ(θ∣θt)\theta^{t+1}= arg max_{\theta}Q(\theta|\theta^t)θt+1=argmaxθQ(θ∣θt)
贝叶斯信念网络Bayes Belief network相关推荐
- 机器学习算法-10贝叶斯信念网络、聚类算法、基于密度的方法DBSCAN
贝叶斯信念神经网络 bayes belief network (BNN), 朴素贝叶斯分类器需要特征之间相互独立的强条件,制约了模型的适用, 用有向无环图表达变量之间的依赖关系,变量用节点表示,依赖关 ...
- 独家 | 贝叶斯信念网络初探(附链接)
作者:Jason Brownlee 翻译:陈超 校对:欧阳锦 本文约3500字,建议阅读8分钟 本文共分为5部分,从概率模型的挑战.概率模型--贝叶斯信念网络.如何建立和使用贝叶斯网络.贝叶斯网络范例 ...
- 【数据挖掘】贝叶斯信念网络 ( 马尔科夫假设 | 结构 | 有向无环图 | 参数 | 条件概率表 | 案例分析 )
文章目录 I . 贝叶斯信念网络 II . 马尔科夫假设 III . 贝叶斯信念网络 示例 1 IV . 贝叶斯信念网络 示例 2 V . 贝叶斯信念网络 联合概率分布计算 VI . 贝叶斯信念网络 ...
- 贝叶斯信念网络分类算法
目录 引言 算法 定义 训练 优点 缺点 总结 参考 引言 在之前的课程和实验中,我们已经了解并实现朴素贝叶斯分类算法.但是朴素贝叶斯分类有一个限制条件,就是特征属性之间必须相互独立.只有当这个条件成 ...
- 【海量数据挖掘/数据分析】之 贝叶斯信念网络(贝叶斯信念网络、有向无环图、贝叶斯公式、贝叶斯信念网络计算实例)
[海量数据挖掘/数据分析]之 贝叶斯信念网络(贝叶斯信念网络.有向无环图.贝叶斯公式.贝叶斯信念网络计算实例) 目录 [海量数据挖掘/数据分析]之 贝叶斯信念网络(贝叶斯信念网络.有向无环图.贝叶斯公 ...
- 贝叶斯信念网络和马尔科夫链有什么区别
可以讲,马尔可夫链是贝叶斯网络的特例,而贝叶斯网络是马尔可夫链的推广. 马尔可夫链 (MarkovChain),它描述了一种状态序列,其每个状态值取决于前面有限个状态.这种模型,对很多实际问题来讲是 ...
- Spark MLlib 源码学习---朴素贝叶斯模型(Naive Bayes)
朴素贝叶斯是机器学习中比较常用的一种模型,尤其在文本分类的问题上是比较常用的baseline.朴素贝叶斯本身训练速度快,具有可并行化程度高,可解释性好的优点,但由于其对特征之间的独立性假设不是很符合某 ...
- 贝叶斯网络(belief network)及相关知识整理
贝叶斯网络(belief network)及相关知识 频率派:认为theta是个固定的未知常数.认为样本是随机的,重点研究样本分布 贝叶斯派:认为theta是不确定的未知数.认为样本是固定的,重点研究 ...
- 朴素贝叶斯(naive bayes)原理小结
朴素贝叶斯(naive bayes)原理小结 1. 朴素贝叶斯的学习 1.1 基本假设:条件独立性 1.2 朴素贝叶斯分类器 1.3 后验概率的含义 2. 参数估计 2.1 极大似然估计 2.2 贝叶 ...
最新文章
- 深度学习与计算机视觉系列(4)_最优化与随机梯度下降\数据预处理,正则化与损失函数
- Leetcode 166. 分数到小数 解题思路及C++实现
- Science:如何高效阅读文献?
- 火线妹在线求偶,想找高质量男朋,粉丝:有没有绯闻心里没数?
- mysql函数之SUBSTRING_INDEX(str,/,-1)
- ActiveMQ Cannot send, channel has already failed: tcp:127.0.0.1:8161
- Linux的启动流程简析(以Debian为例)
- DeepStream插件Gstreamer(一):概述
- L1-028 判断素数 (10 分)—团体程序设计天梯赛
- 软件定义 硬件驱动,云计算的Hybrid时代
- 腾讯云最新10元/月有效期到2018年8月20日
- 完美商业计划书全攻略
- word计算机背景图简约,无水印word背景图片,有,可能是我见识太少
- 如何站在巨人的肩膀上学习
- STM32环境下AS5048A14位磁旋转编码器SPI通讯调试记录——我学到的东西、遇到的问题、解决的过程
- AIX对硬件在线做diag诊断
- python怎么算一元二次方程_python如何解一元二次方程
- linux清除文件后df还是满的,Linux系统下用du和df命令清除大文件的方法
- python条件语句多条件_Python简介,第3章-条件语句
- [教程]通过注册表关闭win10 xbox dvr 游戏录像