贝叶斯信念网络Bayes Belief network

文章目录

  • 贝叶斯信念网络Bayes Belief network
    • 1. BBN
    • 2. 两大成分
    • 3. 先验概率
      • 3.1.1 计算患心脏病的概率
      • 3.1.2 计算血压高的概率
    • 4. 条件概率
      • 4.2.1 基于孩子结点,父母结点的条件概率
      • 4.2.2 基于父母结点,孩子结点的条件概率
      • 4.2.3 结点之间独立
    • 5. 网络拓扑
      • 5.1 未知网络拓扑
      • 5.2 某些变量隐藏
        • 梯度下降算法
        • EM算法Expectation&Maximization

1. BBN

别称:贝叶斯网络、信念网络、概率网络

信念:相信专家给的概率

网络拓扑:

  1. 数据构造
  2. 专家构造
    可能不需要学习数据,整个网络可能都是由专家经验产生的

朴素贝叶斯:特征(属性)之间互相独立

但是特征之间不一定一定独立,会存在一些依赖。怎么解决?

联合条件概率分布


2. 两大成分

  • 有向无环图

有向边:表示特征之间的关系
结点之间关系:

  1. 独立(无关系)
  2. 父结点、孩子结点:父结点是当前结点的因,孩子结点是当前结点的果
  • 条件概率表CPT(Condition probability table)

表中的发生概率来自于专家


3. 先验概率

3.1.1 计算患心脏病的概率

α:\alpha :α: E的可能取值
β:\beta:β: D的可能取值
P(E=α,D=β)=P(E=α)P(D=β):P(E=\alpha ,D= \beta) = P(E=\alpha )P(D= \beta) :P(E=α,D=β)=P(E=α)P(D=β):E和D相互独立

3.1.2 计算血压高的概率


4. 条件概率

4.2.1 基于孩子结点,父母结点的条件概率

p(A|B)p(B) = p(AB)
p(B|A)p(A) = p(AB)

得出:
p(A∣B)p(B)p(B∣A)p(A)=1\frac{p(A|B)p(B)}{p(B|A)p(A) } = 1p(B∣A)p(A)p(A∣B)p(B)​=1
p(A∣B)=p(B∣A)p(A)p(B)p(A|B) = \frac{p(B|A)p(A)}{p(B)}p(A∣B)=p(B)p(B∣A)p(A)​

4.2.2 基于父母结点,孩子结点的条件概率

4.2.3 结点之间独立

p(A∣B)p(B)=p(AB)=p(A)p(B)p(A|B)p(B) = p(AB) = p(A)p(B) p(A∣B)p(B)=p(AB)=p(A)p(B)
p(A∣B)=p(A)p(A|B) = p(A) p(A∣B)=p(A)


5. 网络拓扑

  1. 网络拓扑未知
  2. 网络拓扑已知,并且网络内部可观测
  3. 网络拓扑已知,并且网络内部某些变量隐藏(缺失)

1:需要构造网络拓扑
3:需要训练网络,用以完整网络

5.1 未知网络拓扑

  • 一些学习算法可通过训练数据来产生网络拓扑
  • 专家构造

5.2 某些变量隐藏

有不同的方法来训练信念网络,比如梯度下降法(迭代的方式)Gradient descent。

梯度下降算法

目的:找出最大化该函数的权重的集合

  1. 计算梯度

∂lnPw(D)∂wijk=∑d=1∣D∣P(Yi=yij,Ui=uik∣Xd)wijk\frac{\partial lnP_w(D)}{\partial w_{ijk}}= \sum^{|D|}_{d=1}\frac{P(Y_i=y_{ij},U_i=u_{ik}| X_d)}{w_{ijk}}∂wijk​∂lnPw​(D)​=d=1∑∣D∣​wijk​P(Yi​=yij​,Ui​=uik​∣Xd​)​

D:数据集
XdX_dXd​:训练元组,XdX_dXd​的概率记为 p(可使用贝叶斯网路推理的标准算法求得)

  1. 沿梯度方向前进一小步

wijk=wijk+l∂lnPw(D)∂wijkw_{ijk} = w_{ijk} + l\frac{\partial lnP_w(D)}{\partial w_{ijk}}wijk​=wijk​+l∂wijk​∂lnPw​(D)​

lll:表示步长的学习率(一般取小点,便于收敛)

  1. 重新规格化权重

wijkw_{ijk}wijk​是概率值,必须在[0,1]之间并且对于所有的i、k,∑jwijk必须等于1\sum_jw_{ijk}必须等于1∑j​wijk​必须等于1。权重更新之后(第二步之后)可以对其规格化来保证上述条件

wijk恒等于p(Yi=yij∣Ui=uik)w_{ijk} 恒等于 p(Y_{i}=y_{ij} | U_i=u_{ik})wijk​恒等于p(Yi​=yij​∣Ui​=uik​)
wijkw_{ijk}wijk​:有双亲(Ui=uikU_i=u_{ik}Ui​=uik​)的 变量(Yi=yijY_i=y_{ij}Yi​=yij​)的 CPT表目,可以看作权重,是对数据建模的重要参数
变量:网路中的结点

EM算法Expectation&Maximization

我们一直假设训练样本的所有的属性变量的值都已经被观测到(训练样本没有缺失),但是现实生活中往往会遇到“不完整”的训练样本(某个属性变量的值缺失)。存在这种“未观测(缺失)”的变量情况下,是否仍然能对模型参数进行估计呢?

未观测变量 = 隐变量 = 缺失变量

LL(θ∣X,Z)=lnP(X,Z∣θ)LL(\theta|X,Z) = lnP(X,Z|\theta) LL(θ∣X,Z)=lnP(X,Z∣θ)

X:已观测变量集合
Z:隐变量集合
θ\thetaθ:模型参数

因为Z是隐变量,不可直接求得上式。
但是可以通过计算出Z的期望,之后最大化已观测数据的对数似然(在这儿叫:边际似然)
LL(θ∣X)=lnP(X∣θ)=ln∑ZP(X,Z∣θ)LL(\theta|X) = lnP(X | \theta) = ln\sum_ZP(X,Z | \theta) LL(θ∣X)=lnP(X∣θ)=lnZ∑​P(X,Z∣θ)
公式7.35公式7.35公式7.35

EM算法是常用的估计参数隐变量的利器,它是一种迭代式的方法,基本思想是:
若参数θ\thetaθ已知,则可根据训练数据推断出最优隐变量Z的值;
反之,若Z的值已知,则可方便地对参数θ\thetaθ做极大似然估计。

依照基本思想,我们可以给一个θ0\theta_0θ0​初始值,然后对公式7.35进行迭代:
EM原型:

  1. 给一个θ0\theta_0θ0​初始值
  2. 基于θt\theta^tθt推断隐变量Z的期望,记为ZtZ^tZt;
  3. 基于X(已观测变量)和 ZtZ^tZt 对 θ\thetaθ 进行极大似然估计,获得 θt+1\theta^{t+1}θt+1。
  4. 重复2、3,直到获得局部最优解。

若不是取Z的期望,而是基于θt\theta^tθt计算隐变量Z的概率分布P(Z∣X,θt)P(Z | X,\theta^t)P(Z∣X,θt),EM的两个步骤:

  • E:基于θt\theta^tθt推断隐变量分布P(Z∣X,θt)P(Z | X,\theta^t)P(Z∣X,θt),并且计算对数似然LL(θ∣X,Z)LL(\theta|X,Z)LL(θ∣X,Z)关于Z的期望。
  • M:寻找参数最大化期望似然,即:θt+1=argmaxθQ(θ∣θt)\theta^{t+1}= arg max_{\theta}Q(\theta|\theta^t)θt+1=argmaxθ​Q(θ∣θt)

贝叶斯信念网络Bayes Belief network相关推荐

  1. 机器学习算法-10贝叶斯信念网络、聚类算法、基于密度的方法DBSCAN

    贝叶斯信念神经网络 bayes belief network (BNN), 朴素贝叶斯分类器需要特征之间相互独立的强条件,制约了模型的适用, 用有向无环图表达变量之间的依赖关系,变量用节点表示,依赖关 ...

  2. 独家 | 贝叶斯信念网络初探(附链接)

    作者:Jason Brownlee 翻译:陈超 校对:欧阳锦 本文约3500字,建议阅读8分钟 本文共分为5部分,从概率模型的挑战.概率模型--贝叶斯信念网络.如何建立和使用贝叶斯网络.贝叶斯网络范例 ...

  3. 【数据挖掘】贝叶斯信念网络 ( 马尔科夫假设 | 结构 | 有向无环图 | 参数 | 条件概率表 | 案例分析 )

    文章目录 I . 贝叶斯信念网络 II . 马尔科夫假设 III . 贝叶斯信念网络 示例 1 IV . 贝叶斯信念网络 示例 2 V . 贝叶斯信念网络 联合概率分布计算 VI . 贝叶斯信念网络 ...

  4. 贝叶斯信念网络分类算法

    目录 引言 算法 定义 训练 优点 缺点 总结 参考 引言 在之前的课程和实验中,我们已经了解并实现朴素贝叶斯分类算法.但是朴素贝叶斯分类有一个限制条件,就是特征属性之间必须相互独立.只有当这个条件成 ...

  5. 【海量数据挖掘/数据分析】之 贝叶斯信念网络(贝叶斯信念网络、有向无环图、贝叶斯公式、贝叶斯信念网络计算实例)

    [海量数据挖掘/数据分析]之 贝叶斯信念网络(贝叶斯信念网络.有向无环图.贝叶斯公式.贝叶斯信念网络计算实例) 目录 [海量数据挖掘/数据分析]之 贝叶斯信念网络(贝叶斯信念网络.有向无环图.贝叶斯公 ...

  6. 贝叶斯信念网络和马尔科夫链有什么区别

    可以讲,马尔可夫链是贝叶斯网络的特例,而贝叶斯网络是马尔可夫链的推广.  马尔可夫链 (MarkovChain),它描述了一种状态序列,其每个状态值取决于前面有限个状态.这种模型,对很多实际问题来讲是 ...

  7. Spark MLlib 源码学习---朴素贝叶斯模型(Naive Bayes)

    朴素贝叶斯是机器学习中比较常用的一种模型,尤其在文本分类的问题上是比较常用的baseline.朴素贝叶斯本身训练速度快,具有可并行化程度高,可解释性好的优点,但由于其对特征之间的独立性假设不是很符合某 ...

  8. 贝叶斯网络(belief network)及相关知识整理

    贝叶斯网络(belief network)及相关知识 频率派:认为theta是个固定的未知常数.认为样本是随机的,重点研究样本分布 贝叶斯派:认为theta是不确定的未知数.认为样本是固定的,重点研究 ...

  9. 朴素贝叶斯(naive bayes)原理小结

    朴素贝叶斯(naive bayes)原理小结 1. 朴素贝叶斯的学习 1.1 基本假设:条件独立性 1.2 朴素贝叶斯分类器 1.3 后验概率的含义 2. 参数估计 2.1 极大似然估计 2.2 贝叶 ...

最新文章

  1. 深度学习与计算机视觉系列(4)_最优化与随机梯度下降\数据预处理,正则化与损失函数
  2. Leetcode 166. 分数到小数 解题思路及C++实现
  3. Science:如何高效阅读文献?
  4. 火线妹在线求偶,想找高质量男朋,粉丝:有没有绯闻心里没数?
  5. mysql函数之SUBSTRING_INDEX(str,/,-1)
  6. ActiveMQ Cannot send, channel has already failed: tcp:127.0.0.1:8161
  7. Linux的启动流程简析(以Debian为例)
  8. DeepStream插件Gstreamer(一):概述
  9. L1-028 判断素数 (10 分)—团体程序设计天梯赛
  10. 软件定义 硬件驱动,云计算的Hybrid时代
  11. 腾讯云最新10元/月有效期到2018年8月20日
  12. 完美商业计划书全攻略
  13. word计算机背景图简约,无水印word背景图片,有,可能是我见识太少
  14. 如何站在巨人的肩膀上学习
  15. STM32环境下AS5048A14位磁旋转编码器SPI通讯调试记录——我学到的东西、遇到的问题、解决的过程
  16. AIX对硬件在线做diag诊断
  17. python怎么算一元二次方程_python如何解一元二次方程
  18. linux清除文件后df还是满的,Linux系统下用du和df命令清除大文件的方法
  19. python条件语句多条件_Python简介,第3章-条件语句
  20. [教程]通过注册表关闭win10 xbox dvr 游戏录像

热门文章

  1. 计算机职称考试软盘,2010年职称计算机考试:磁盘格式化
  2. android tv 帮助,android TV端各类焦点问题
  3. linux eth_p_ip,linux数据链路访问之ETH_P_ALL等等
  4. Spring框架中的控制反转和依赖注入
  5. 【Docker 命令】- images命令
  6. idea 中新建Servlet
  7. bootstrap中如何使input中的小图标获得点击事件
  8. Python——杂记
  9. xcode 插件安装路径
  10. C#面试题 之 判断质数