1.  Approximation
   Probabilistic model  中的一个 central task :给定一组observation X 后,计算latent variables Z 的后验概率P( Z | X)。以及一些expectation with respect to P(Z| X)。很多情况下P( Z | X)是analytically  intractable 的。这就需要有approximation 方法。
   Latent variable :只要没有观察到的都归为 latent variable ,比如在 Bayesian 中的parameter(它们是random variable )。在Probablistic Graphica l Model 的观点看,parameter和狭义的latent variable 的不同就是,parameter的个数和观察到的数据的个数无关,但是狭义的latent
variable 则与其相关。
   Approximation 方法:分为deterministic 方法和stochatic 方法。前者包括 Laplace approximation ,variational inference 等;后者包括 MCMC sampling 等。

2. Variational inference
   问题:一个 probablistic model   P( X, Z ),含有observed variables X={x1,x2...} 和latent variable Z={z1,z2...}
   目的:为后验概率 P( Z | X)和model evidence P(X) 找approximation 。
   思路:
   引入一个分布q(Z) ,从而把P(X)分解开来:ln p(x) = L(q) + KL(q||p)。其中

  

注意,现在要用q(Z) 来近似P( Z | X)。如何衡量二者的相近程度呢?上式中的KL(q||p) 正是一个合适的指标。因此,现在就要找到一个q(Z),使KL(q||p)  最小化。

然后,P( Z|X)本身就是intractable 的,所以直接难以找到使 KL(q||p)  最小化的 q( Z )。但是如果joint  distribution   P( X,   Z )更容易处理,那么就有了一个思路:由于ln p(X)的值跟q( Z )的选取无关,所以最小化KL(q||p) ,等价于最大化 L(q) 。

假设:q( Z )的范围是极其大的,为了便于求出最大化L(q) 的解,需要给q( Z )一些限制。给予限制的原则是兼顾tractable 与flexible 。常用的限制/ 假设是:

  

即分解性质。其中的zi构成Z 的一个不交子集族.

q( Z )被称为 variational distribution。

转载于:https://www.cnblogs.com/549294286/p/3325360.html

Approximate Inference相关推荐

  1. PRML之Approximate Inference

    匆匆的看到PRML第十章Approximate Inference终于感觉啃不动了,不知道是经不起那些公式的折腾了,还是数学基础不够了,总之先歇歇看看中文的吧.参考了别人的博客,链接如下: http: ...

  2. 9. Approximate Inference

    Variational Inference 思想:用易于计算的 $Q(Z)$ 来近似后验概率 $P(Z|X)$ ,进行推理 Observed variables $X$ and hidden vari ...

  3. PRML第十章 Approximate Inference(近似推断,变分推断,KL散度,平均场, Mean Field )

    https://blog.csdn.net/nietzsche2015/article/details/43450853

  4. ucl计算机硕士选课,伦敦大学学院UCL这4个超酷的机器学习专业

    近几年,随着科技不断进步,人工智能领域也得到了前所未有的发展,机器人被广泛应用于各个行业,则机器学习专业越来越火爆,伦敦大学学院作为全球教育理念最前沿的国家之一,也开设了很多机器学习专业. 下面,南昌 ...

  5. 阅读记录:Learning multiple layers of representation(杂乱笔记)

    典型的浅层学习结构: 传统隐马尔可夫模型(HMM).条件随机场 (CRFs).最大熵模型(Maxent).支持向量机(SVM).核回归及仅含单隐层的多层感知器(MLP)等. 局部表示,分布式表示和稀疏 ...

  6. 一些关于机器学习的网站总结

    Active Learning ■ http://active-learning.net/,这里包括了关于 Active Learning 理论以及应用的一些文章,特别是那篇 Survey. Tran ...

  7. Logistic regression--转

    原文地址:https://en.wikipedia.org/wiki/Logistic_regression In statistics, logistic regression, or logit ...

  8. 机器视觉资料汇总(2)

    转载自: [转载整理]计算机视觉及机器学习牛人和资料 - Kenneth CHOU - 博客园 http://www.cnblogs.com/wangqiqi/p/3786157.html Paper ...

  9. “概率模型与计算机视觉”-林达华

    "概率模型与计算机视觉" 林达华 美国麻省理工学院(MIT)博士 上世纪60年代, Marvin Minsky 在MIT让他的本科学生 Gerald Jay Sussman用一个暑 ...

最新文章

  1. CHM:植物利用细菌获得真菌抗性!中山大学李剑峰课题组揭示植物免疫预警新机制...
  2. [模板]tarjan求强连通分量
  3. attribute 'downsample' of type 'NoneType' is not usable in a script method
  4. python常用命令大全-Python pip 常用命令汇总
  5. c语言归并排序代码详细注释,C语言实现排序算法之归并排序详解
  6. docker镜像启动后端口号是多少_14,Docker容器必知必会,你会了吗?
  7. linux根据条件查找文件、根据文件内容查找文件
  8. Adversarial Validation 微软恶意代码比赛的一个kenel的解析
  9. 360浏览器设置多标签操作步骤
  10. 工科学生考研能选择计算机专业么,这8个“工科专业”考研后发展会更好,毕业生紧缺度高,前途很好!...
  11. CSS尺寸和字体单位-em、px还是%
  12. 带刺的下沉市场:小镇青年要的不止是9块9包邮
  13. Java使用RabbitMQ之订阅分发(Topic)
  14. Java基础练习之流程控制(一)
  15. matlab遗传算法gaot工具箱安装
  16. 夜神模拟器和appium 的安装
  17. 乘法鉴相器的matlab仿真,种用MATLAB仿真锁相环方法.PDF
  18. 一群猴子要选新猴王。新猴王的选择方法是:让N只候选猴子围成一圈,从某位置起顺序编号为1~N号。从第1号开始报数,每轮从1报到3,凡报到3的猴子即退出圈子,接着又从紧邻的下一只猴子开始同样的报数。
  19. 1.488Mpps是如何计算出来的?
  20. 七天学会「股票数据分析软件」的开发(上)

热门文章

  1. hadoop客户端提交作业代码解读
  2. googleplay经验总结
  3. CLRS 6.3建堆
  4. CLAHE算法 opencv
  5. 川农在线计算机应用答案,川农20春《计算机应用基础(专科)》离线考核
  6. 内网IP外网IP的关联及访问互联网原理
  7. 自定义字体包过大,导致页面加载缓慢的问题解决
  8. (BAT批处理)如何穿透多个文件夹批量修改文件后缀名?
  9. 安全隔离与视频交换解决方案
  10. TestNG框架学习