1、背景

2、理论

2.1、Jensen不等式

优化理论中,假设 \(f\) 是定义域为实数的函数,如果对于所有的实数 \(x\) ,且二阶导数\(f''(x)\geq 0\) ,则 \(f\) 是凸函数。当 \(x\) 是向量时,如果其Hessian矩阵H是半正定的 (\(H \geq 0\)),那么 \(f\) 是凸函数。且当 \(f''(x)>0\) 或者 \(H>0\) ,那么称 \(f\) 是严格凸函数。

Jensen不等式定义如下:

如果 \(f\) 是任一凸函数,则 \(E\left[f(x)\right]\geq f(\left[x\right])\) 。特别的,如果 \(f\) 是严格的凸函数,那么\(E\left[f(x)\right]=f(\left[x\right])\) 当且仅当 \(p(x=E\left[x\right])=1\) ,即使说 \(x\) 是常量。

Jensen's inequality

如图所示,实线 \(f\) 是凸函数,\(X\) 是随机变量,分别有 \(0.5\) 的概率位于a或b点(类似于掷骰子)。\(X\) 的期望 \(E\left[X\right]\) 是a和b的均值,从图中可以看到 \(E\left[f(x)\right]\geq f(\left[x\right])\) 成立。

如果 \(f\) 是(严格)凹函数当且仅当 \(-f\) 是严格)凸函数时,其Jensen不等式与凸函数反号,即 \(E\left[f(x)\right]\leq f(\left[x\right])\) 成立。

2.2、EM算法

给定数据样本 \(\left\{x^{1},x^{2},...,x^{m}\right\}\) ,且样本间独立,我们的目的是找到每个样本的隐含类别 \(z\) ,使得概率密度 \(p(x,z)\) 最大。\(p(x,z)\) 的最大似然估计如下:

\[

\begin{align}

l(\theta) &= \sum_{i=1}^{m} log{p(x;\theta)}\\

&= \sum_{i=1}^{m} log{\sum_{z}p(x,z;\theta)}

\end{align}

\]

上式中,第一步是对极大似然函数取对数,第二步是对每个样例可能的类别 \(z\) 求联合概率分布概率的和。因为有隐藏变量 \(z\) 的存在,所以通过上式直接通过最大似然求 \(\theta\) 是比较困难的,但是如果确定 \(z\) 后,求解就比较容易了。

而通过EM算法求解存在隐藏变量 \(z\) 的优化问题比较有效的,其思想是不断地建立 \(l\) 的下界 (E步),然后优化下界 (M步)。具体过程是这样的:

对于每一个样例 \(i\) , \(Q_{i}\) 表示该样例 \(i\) 的隐含变量 \(z\) 的某种分布,\(Q_{i}\) 满足的条件是 \(\sum_{z}Q_{i}(z)=1 ,Q_{i}(z)\geq0\) (如果 \(z\) 是连续的,那么 \(Q_{i}\) 是概率密度函数,需要将求和符号\(\sum\)换成积分符号\(\int\))。比如将教室里学生分类,如果隐藏变量 \(z\) 是身高,那么就是连续的高斯分布,若隐藏变量是性别,那么就是伯努利分布。根据描述内容得到下面的公式:

\[

\begin{align}

\sum_{i}log{p(x^{(i)};\theta})

&=\sum_{i}log\sum_{z^{(i)}}p(x^{(i)},z^{(i)};\theta)\\

&=\sum_{i}log\sum_{z^{(i)}}Q_{i}(z^{(i)})\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}\\

&\geqslant \sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)}) log \frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}

\end{align}

\]

上式(3)到(4)比较直接,分子分母同时乘以一个相同的函数 \(Q_{i}(z^{(i)})\) ,从(4)到(5)利用了Jensen不等式,因为 \(log(x)''<0\) ,所以 \(log(x)\) 是凹函数,并且有期望如下,

\[

\begin{align}

\sum_{z^{(i)}} Q_{i}(z^{(i)})

\left[

\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}

\right]

\end{align}

\]

(6)式即为 \(\left[p(x^{(i)},z^{(i)};\theta)/Q_{i}(z^{(i)})\right]\) 的期望。

期望回顾

假设 \(Y\) 是随机变量是 \(X\) 的函数,\(Y=g(X)\)(\(g\) 是连续函数),则:

\(X\) 是离散型随机变量,它的分布律为 \(P(X=x_{k})=p_{k}\),\(K=1,2,...\) 。若 \(\sum_{k=1}^{+\infty}g(x_{k}p_{k})\) 绝对收敛,则有期望

\[

\begin{align}

E(Y)=E\left[g(X)\right]=\sum_{k=1}^{+\infty}g(x_{k})p_{k}

\end{align}

\]

\(X\) 是连续型随机变量,它的概率密度为 \(f(x)\),若 \(\int_{-\infty}^{+\infty}g(x)f(x)dx\) 绝对收敛,则有期望

\[

\begin{align}

E(Y)=E[g(X)]=\int_{-\infty}^{+\infty}g(x)f(x)dx

\end{align}

\]

结合上述问题,\(Y\) 是 \(\left[\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}\right]\) ,\(X\) 是 \(z^{(i)}\) ,\(Q_{i}(z^{(i)})\) 是 \(p_{k}\),\(g\) 是 \(z^{(i)}\) 到 \(\left[\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}\right]\) 的映射。这样子解释中的期望,再根据凹函数的Jensen不等式:

\[

\begin{align}

f\left(E_{z^{(i)}\sim{Q_{i}}}\left[\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}\right] \right) \geqslant E_{z^{(i)}\sim{Q_{i}}} \left[f\left(\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}\right)\right]

\end{align}

\]

就可以得到式子(5)。

这个过程看作是对 \(l(\theta)\) 求下界。对于 \(Q_{i}\) 的选择有多种可能,但是我们要如何选择最好的?

假设 \(\theta\) 已经给定,那么 \(l(\theta)\) 的值就决定于 \(Q_{i} (z^{(i)})\) 和 \(p(x^{(i)},z^{(i)})\) 了。通过不断调整这两个概率使得下界不断上升,以逼近 \(l(\theta)\) 的真实值,当不等式变成等式的时候,说明我们调整后的概率就能等价于 \(l(\theta)\) 了。按照这个思路,我们就找到等式成立的条件,根据Jensen不等式,要想等式成立,需要让随机变量变成常数值,这里得到:

\[

\begin{align}

\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}=c

\end{align}

\]

上式中 \(c\) 为常数,不依赖于 \(z^{(i)}\) 。对于式子进一步推导,我们知道 \(\sum_{z}Q_{i}(z^{(i)})=1\) ,那么也就有 \(\sum_{z}p(x^{(i)},z^{(i)};\theta)=c\) ,(多个等式分子分母相加不变,这个认为每个样例的两个概率比值都是 \(c\)),那么有下面式子:

\[

\begin{align}

Q_{i}(z^{(i)})

&=\frac{p(x^{(i)},z^{(i)};\theta)}{\sum_{z}p(x^{i},z;\theta)}\\

&=\frac{p(x^{(i)},z^{(i)};\theta)}{p(x^{i};\theta)}\\

&=p(z^{(i)};\theta)

\end{align}

\]

到这里,我们推导出了在固定其他参数 \(\theta\) 后,\( Q_{i}(z^{(i)})\) 的计算公式就是后验概率,解决了\( Q_{i}(z^{(i)})\) 如何选择的问题。这一步就是E步,建立了 \(l(\theta)\) 的下界。接下来是M步,就是在给定\( Q_{i}(z^{(i)})\) 后,调整 \(\theta\) ,去极大化\(l(\theta)\) 的下界 (在固定\( Q_{i}(z^{(i)})\)后,下界还可以调整得更大)。那么一般的EM算法步骤如下:

EM算法

循环重复直到收敛 {

(E步) 对于每一个 \(i\) ,计算

\[

\begin{align}

Q_{i}(z^{(i)}):=p(z^{(i)}|x^{(i)};\theta)

\end{align}

\]

(M步) 计算

\[

\begin{align}

\theta :=\arg\max_{\theta} \sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)})\log\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}

\end{align}

\]

}

那么如何确保EM收敛?,假定 \(\theta^{(t)}\) 和 \(\theta^{(t+1)}\) 是EM算法第 \(t\) 和 \(t+1\) 次迭代后的结果,如果能够证明 \(l(\theta^{(t)})\leqslant l(\theta^{(t+1)})\) ,也就是说极大似然估计单调递增,那么最终我们会达到最大似然估计的最大值。证明如下:

选定 \(\theta^{(t)}\) 后,我们得到E步:

\[

\begin{align}

Q_{i}^{(t)}(z^{(i)}):=p(z^{(i)}|x^{(i)};\theta^{(t)})

\end{align}

\]

这一步保证了在给定 \(\theta^{(t)}\) 时,Jensen不等式中的等式成立,即使说

\[

\begin{align}

l(\theta^{(t)})=\sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)}) log \frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}

\end{align}

\]

然后进行M步,固定 \(Q_{i}^{(t)}(z^{(i)})\) ,并将 \(\theta^{(t)}\) 作为变量,对上面的 \(l(\theta^{(t)})\) 求导后,得到 \(\theta^{(t+1)}\) ,经过一些推导后会有以下公式成立

\[

\begin{align}

l(\theta^{(t+1)})

&\geqslant \sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)}) log \frac{p(x^{(i)},z^{(i)};\theta^{(t+1)})}{Q_{i}(z^{(i)})}\\

& \geqslant \sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)}) log \frac{p(x^{(i)},z^{(i)};\theta^{(t)})}{Q_{i}(z^{(i)})}\\

&=l(\theta^{(t)})

\end{align}

\]

公式(18),得到 \(\theta^(t+1)\) 时,只是最大化 \(l(\theta^{(t)})\) ,也就是 \(l(\theta^{(t+1)})\) 的下界,而没有使等式成立,等式成立只有是在固定 \(\theta\) ,并按照E步得到 \(Q_{i}\) 时才能成立,况且,根据我们上面得到的\(l(\theta)

\geqslant \sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)})\times log \times\frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})} \) 对于所有的 \(Q_{i}\) 和 \(\theta\) 都成立;

公式11.2利用了M步的定义,即是将 \(\theta^{(t)}\) 调整到 \(\theta^{(t+1)}\) ,使下界最大化,因此(19)成立,(20)是前面的结果。

这样就证明了 \(l^{(\theta)}\) 会单调增加。一种收敛方法是 \(l^{(\theta)}\)不再变化,还有一种情况是变化幅度很小。

再次解释一下M。首先(18)对所有的参数都满足,而其等式成立条件只是在固定 \(\theta\),并调整好 \(Q\) 时成立,而第(18)步只是固定 \(Q\),调整 \(\theta\) ,不能保证等式一定成立。(18)到(19)就是M步的定义,(19)到(20)是前面E步所保证等式成立条件。也就是说E步会将下界拉到与 \(l(\theta)\) 一个特定值(这里 \(\theta^{(t)}\))一样的高度,而此时发现下界仍然可以上升,因此经过M步后,下界又被拉升,但达不到与另 \(l(\theta)\) 外一个特定值一样的高度,之后E步又将下界拉到与这个特定值一样的高度,重复下去,直到最大值。

如果我们定义

\[

\begin{align}

J(Q,\theta)=\sum_{i}\sum_{z^{(i)}}Q_{i}(z^{(i)}) log \frac{p(x^{(i)},z^{(i)};\theta)}{Q_{i}(z^{(i)})}

\end{align}

\]

从前面的推导中我们知道 \(l(\theta) \geqslant J(Q,\theta)\) ,EM可以看作是 \(J\) 的坐标上升法,E步固定 \(\theta\) ,优化 \(Q\) ,M步固定 \(Q\) 优化 \(\theta\) 。

3、高斯混合模型

关于找一找教程网

本站文章仅代表作者观点,不代表本站立场,所有文章非营利性免费分享。

本站提供了软件编程、网站开发技术、服务器运维、人工智能等等IT技术文章,希望广大程序员努力学习,让我们用科技改变世界。

[EM算法]http://www.zyiz.net/tech/detail-99275.html

em算法的java实现_EM算法 - Java教程 - 找一找教程网相关推荐

  1. java 排序算法 讲解_java实现排序算法之冒泡排序法详细讲解

    冒泡排序(Bubble Sort),是一种计算机科学领域的较简单的排序算法.它重复地走访过要排序的数列,一次比较两个元素,如果他们的顺序错误就把他们交换过来.走访数列的工作是重复地进行直到没有再需要交 ...

  2. Java 数据结构与算法系列之冒泡排序

    一.前言 相信大部分同学都已经学过数据结构与算法这门课了,并且我们可能都会发现一个现象就是我们所学过的数据结构与算法类的书籍基本都是使用 C 语言来写的,好像没见过使用 Java 写的数据结构与算法. ...

  3. Java数据结构与算法——树(基本概念,很重要)

    声明:码字不易,转载请注明出处,欢迎文章下方讨论交流. 有网友私信我,期待我的下一篇数据结构.非常荣幸文章被认可,也非常感谢你们的监督. 前言:Java数据结构与算法专题会不定时更新,欢迎各位读者监督 ...

  4. Hanlp分词实例:Java实现TFIDF算法

    2019独角兽企业重金招聘Python工程师标准>>> 算法介绍 最近要做领域概念的提取,TFIDF作为一个很经典的算法可以作为其中的一步处理. 关于TFIDF算法的介绍可以参考这篇 ...

  5. Java常见排序算法

    Java常见排序算法 转载于:https://www.cnblogs.com/hfultrastrong/p/7829889.html

  6. java的算法库_java – 如何实现算法库?

    我有一组用 Java实现的算法并打包为jar文件.该算法适用于第三方访问它们.算法有几种变化.将添加加班,新版本和新类型的算法.与此同时,我不会强迫所有第三方使用新算法. 我正在考虑为此实现一个简单的 ...

  7. Java数据结构与算法——插入排序

    声明:码字不易,转载请注明出处,欢迎文章下方讨论交流. 前言:Java数据结构与算法专题会不定时更新,欢迎各位读者监督.本篇文章介绍排序算法中插入排序算法,包括插入排序的思路,适用场景,性能分析,ja ...

  8. JAVA版连连看算法研究

    JAVA连连看之算法: 连连看连接方式的类型:<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:off ...

  9. Java数字签名——RSA算法

    数字签名:带有密钥(公钥,私钥)的消息摘要算法. 验证数据的完整性,认证数据的来源,抗否性 OSI参考模型 私钥签名,公钥验证 签名算法:RSA,DSA,ECDSA 算法1 :RSA MD,SHA两类 ...

最新文章

  1. Halcon 读写txt文件,以逗号或空格分割
  2. Java项目:诚途旅游系统(java+JSP+Spring+SSM+Mysql)
  3. Spring Boot + GraphQL 才是 API 的未来!
  4. 如何不停机迁移一个mysql INNODB 数据库?
  5. python2和python3分别是python的两个版本_Windows下Python2与Python3两个版本共存的方法详解...
  6. Appium移动自动化测试(三)--安装Android模拟器(转)
  7. 科技馆游记(精华)-------- double篇
  8. WindowManager.LayoutParams类
  9. ssh 将22端口换为其它 防火墙设置
  10. 解决MSN无法登录问题的意外收获
  11. 2025年全球5G设备将达到14亿部 但4G仍占主导地位
  12. 【面向对象】第三单元总结——JML
  13. python的setting怎么找_vscode配置python之settings.json 智能提示
  14. base64解码_一份简明的 Base64 原理解析
  15. 计算机是怎样跑起来的pdf_程序是怎样跑起来的 -- 通过汇编语言了解程序的实际构成(中篇)...
  16. 为什么 Java 不支持类多重继承?
  17. 阿里平台上转的 数据模型架构规范
  18. daemons java_Java ThreadGroup isDaemon()方法
  19. 基于SSM 的图书馆管理系统
  20. 深度学习还是鼠标搞定,零基础建网站必备技能

热门文章

  1. 点阵大屏语音感应时计——人体感应
  2. OpenCart之商品管理教程
  3. 《统一沟通-微软-实战》-3-部署-Exchange 2010-4-基本配置
  4. beanstalkd 协议中文版
  5. 如何在页面调用JS函数的代码
  6. linux 终端界面显示 中文乱码或方块
  7. python3 hmac算法简介
  8. 字符串转64位int(strtol,_atoi64)
  9. WSAGetLastError返回的可能错误代码
  10. 反调试技巧总结-原理和实现(1)(2)(3)(4)(5)(6)......