NLP --- 隐马尔可夫HMM(EM算法(期望最大化算法))
期望最大化 (Expectation Maximization) 算法最初是由 Ceppellini[2] 等人 1950 年在讨论基因频率的估计的时候提出的。后来又被 Hartley[3] 和Baum[4] 等人发展的更加广泛。目前引用的较多的是 1977 年 Dempster[5]等人的工作。它主要用于从不完整的数据中计算最大似然估计。后来经过其他学者的发展,这个算法也被用于聚类等应用。
因此如果大家理解了K-means聚类,那么这个算法就容易理解了,这里我们先一起来回归一下K-means的聚类思想,其实他的聚类思想很简单,我们来看一下算法过程:
k-means的k就是最终聚集的簇数,这个要你事先自己指定。k-means在常见的机器学习算法中算是相当简单的,基本过程如下:
- 首先任取k个样本点作为k个簇的初始中心;
- 对每一个样本点,计算它们与k个中心的距离,把它归入距离最小的中心所在的簇;
- 等到所有的样本点归类完毕,重新计算k个簇的中心;
- 重复以上过程直至样本点归入的簇不再变动。
通过上面大家可以看到,为了找到合适的聚类中心点,k-means刚开始给的初始中心是任意的,然后不断的更新迭代后按照上面算法步骤不停的更改k个中心的位置,直到他们都几乎不再变化位置,也就是说当k个位置几乎不再变化时基本上就说明了到达了真实的数据中心了。这里有一个思想就是我刚开始不知道数据的最佳K个中心点,但是我可以通过数据不停的迭代,进而达到理想的中心点,而这个思想也是EM算法的核心思想。
下面先通过一个简单的例子引入EM算法的核心思想,然后在使用数学进行证明这样做的合理性。
EM
考虑一个投掷硬币的实验:现在我们有两枚硬币 A 和 B,这两枚硬币和普通的硬币不一样,他们投掷出正面的概率和投掷出反面的概率不一定相同。我们将 A 和 B 投掷出正面的概率分别记为和 。我们现在独立地做 5 次试验:随机的从这两枚硬币中抽取 1 枚,投掷 10 次,统计出现正面的次数。那么我们就得到了如表格1的实验结果。
试验代号 | 投掷的硬币 | 出现正面的次数 |
1 2 3 4 5 |
B A A B A |
5 9 8 4 7 |
在这个实验中,我们记录两组随机变量:
其中,代表试验中出现的正面的次数,代表这次试验投掷的是硬币A还是B。
我们的目标是通过这个实验来估计 的数值。这个实验中的参数估计就是有完整数据的参数估计,这个是因为我们不仅仅知道每次试验中投掷出正面的次数,我们还知道每次试验中投掷的是硬币 A 还是 B。
一个很简单也很直接的估计 θ 的方法如公式(1)所示。
实际上这样的估计就是统计上的极大似然估计 (maximum likelihood estimation) 的结果。用来表示 的联合概率分布(其中带有参数 θ),那么对于上面的实验,我们可以计算出他们出现我们观察到的结果即 的概率。函数 就叫做 θ 的似然函数。我们将它对 θ 求偏导并令偏导数为 0,就可以得到如(1) 的结果。
对其求偏导,这里只对求偏导,也是一样的求,这里我们把系数统一使用C来表示了,关于的式子使用进行代替,然后整理一下上式得:
对其求偏导,并令其为0的:
此时化简解得如下:
同理可求
由此可见上面利用均值和这里使用最大释然函数的结果是一样的,因此这里的(1)式称为极大释然估计。这里大家应该明白了吧。下面我们把难度加大:
我们将这个问题稍微改变一下,我们将我们所观察到的结果修改一下:我们现在只知道每次试验有几次投掷出正面,但是不知道每次试验投掷的是哪个硬币,也就是说我们只知道表1中第一列和第三列。这个时候我们就称 为隐藏变量 (Hidden Variable),称为观察变量 (Observed Variable)。这个时候再来估计参数 和 ,就没有那么多数据可供使用了,这个时候的估计叫做不完整数据的参数估计(这里X就可认为是HMM中的可见变量了,Z就是隐藏的状态变量了)。
如果我们这个时候有某种方法(比如,正确的猜到每次投掷硬币是 A还是 B),这样的话我们就可以将这个不完整的数据估计变为完整数据估计。
当然我们如果没有方法来获得更多的数据的话,那么下面提供了一种在这种不完整数据的情况下来估计参数 θ 的方法。我们用迭代的方式来进行:
(1) 我们先赋给 θ 一个初始值,这个值不管是经验也好猜的也好,反正我们给它一个初始值。在实际使用中往往这个初始值是 有其他算法的结果给出的,当然随机给他分配一个符合定义域的值也可以。这里我们就给定 = 0.7, = 0.4
(2) 然后我们根据这个来判断或者猜测每次投掷更像是哪枚硬币投掷的结果。比如对于试验 1,如果投掷的是 A,那么出现 5 个正面的概率为;如果投掷的是B,出现5个正面的概率为 ;基于试验1的试验结果,可以判断这个试验投掷的是硬币 A 的概率为 0.1029/(0.1029+0.2007)=0.3389,是 B 的概率为 0.2007/(0.1029+0.2007)= 0.6611。因此这个结果更可能是投掷 B 出现 的结果。
(3) 假设上一步猜测的结果为 B,A,A,B,A,那么根据这个猜测,可以像完整数据的参数估计一样 (公式2) 重新计算 θ 的值。
这样一次一次的迭代 2-3 步骤直到收敛,我们就得到了 θ 的估计。这里大家应该能感受到这和K-means很像对吧,你可能有疑问,这个方法靠谱么?事实证明,它确 实是靠谱的。下面我们就从数学角度来说明他的合理性。
数学证明
首先来明确一下我们的目标:我们的目标是在观察变量 X 和给定观察样本 的情况下,极大化对数似然函数
这个函数大家应该都能看懂吧,看不懂的请返回看我的上一篇博客。
其中只包含观察变量的概率密度函数(其实是求边缘密度,即对另一个变量进行求和就可以了得到边缘密度了):
其中 Z 为隐藏随机变量, 是 Z 的所有可能的取值。那么把(6)式代入(5)式:
这里我们引入了一组参数(不要怕多,我们后面会处理掉它的)α,它满足∀可能的j, ∈ (0,1]和
到这里,先介绍一个凸函数的性质,或者叫做凸函数的定义。f(x) 为凸函数,,对 f(x) 定义域中的任意 n 个 有 :
上式称为Jensen不等式
对于严格凸函数,上面的等号只有在 的时候成立。关于凸函数的其他性质不再赘述。对数函数是一个严格凸函数。因而我们可以有下面这个结果:
上式是式根据式得到的,只是不同的是ln是凹函数,但是同样适用Jensen不等式,只是不等号方向不一样罢了。
现在我们根据等号成立的条件来确定即
这里需仔细推一下,我们知道的成立条件是,那么联合概率密度是不变的,等于一个常数,和j无关,和j无关的意思是当j确定时,无论i等于几上式都是一个常数,大家可以这样理解,因此可以写成式,对上式的j求和同时把乘到右边:
我们仔细看看等式的左边,他是对j求和,而且P是联合概率密度,对某一个维度求和不就是求边缘密度吗?所以上式可以写为如下:
也就是说:
此时把上式代入(10)式,可得(11)式
其中 c 是一个与 j 无关的常数。因为稍作变换就可以得到
上式是什么意思呢?大家还记得条件概率的定义吗?
因此(11)式就是条件概率的表达式即为.,这个式子代表什么意思呢?其实就是在我们知道了扔的硬币为正的情况下这个硬币为A或者为B的概率,就是再求隐藏的条件概率。
现在来解释一下我们得到了什么。就是 在 下的条件概率或者后验概率。求 α 就是求隐藏随机变量 Z 的条件分布。总结一下目前得到的公式就是
好,得到上式以后,我们如何求呢,这里需要和大家说明的是,这里的在上式没体现处理,他是包含在P和中的,这里大家需要理解,那我们如何求解参数使的达到最大呢?这里我们需要明确上式是很复杂的,直接求导不好求,因此需要想办法进行间接求极大值,怎么求呢?这里给出一个简单的例子:
假设有一个待求极值的函数,如上式,其中很复杂无法求导,而相对简单一点,那么针对这样的函数我们如何求极值呢?这里提供一种迭代的方法,首先我给任意赋值一个的值,此时就是一个常数了,那么上式就可以写成,此时在对求导得到,再把代入,在类似的计算,直到不再发生变化此时的就是所求的值,过程如下:
迭代到基本上不再变化或者达到我们设定的阈值
解我们的(12)也是这样的思想。
直接就极大值比较难求,EM 算法就是按照下面这个过程来的。
(1) 根据上一步的 θ 来计算 α,即隐藏变量的条件分布
(2) 极大化似然函数来得到当前的 θ 的估计
EM算法流程
期望最大化算法就是在这个想法上改进的。它在估计每次投掷的硬币的时候,并不要确定住这次就是硬币 A 或者 B,它计算出来这次投掷的硬币是 A 的概率和是 B 的概率;然后在用这个概率(或者叫做 Z 的分布)来计算似然函数。期望最大化算法步骤总结如下:
总结一下,期望最大化算法就是先根据参数初值估计隐藏变量的分布,然后根据隐藏变量的分布来计算观察变量的似然函数,估计参数的值。前者通常称为 E 步骤,后者称为 M 步骤。
好本节就到这里,下一节来看看HMM的第三个问题的在语料不完整的情况下的解决方法。
参考文献:《期望最大化算法》 binary_seach December 3, 2012
NLP --- 隐马尔可夫HMM(EM算法(期望最大化算法))相关推荐
- NLP --- 隐马尔可夫HMM(概念详解、三个基本问题详解)
本节将进入隐马尔可夫环节,再次提醒不懂马尔科夫过程的同学建议先搞懂什么是马尔科夫过程,什么是马尔科夫链,同时需要懂一点语言模型的知识,下面会用到一点点,本人打算详细总结隐马尔可夫算法思想,因此讲解的会 ...
- NLP --- 隐马尔可夫HMM(第三个问题详解及HMM的应用)
前两节我们详细介绍了什么是极大似然估计和EM算法,简单来说就是数据如果是完整的则可以通过均值来估计参数,因为在数据完整的情况下即有发射符号概率也有状态转移概率,通过估计就可以很容易求出隐马尔可夫模型的 ...
- NLP --- 隐马尔可夫HMM(第一个、第二个问题解决方案)
上一节我们详细的阐述了隐马尔可夫的三个基本问题,结合者背景知识理解这三个问题还是很容易的,因为隐马尔可夫的提出就是建立在语音识别的基础上提出来的,因此根据背景知识学习更容易吸收和深入理解,简单的来说就 ...
- NLP --- 隐马尔可夫HMM(极大释似然估计详解)
上一节我们介绍了隐马尔可夫的第三个基本问题的解决方案,但是遇到的问题是在如果语料库没有给出状态转移概率则就不能使用最大释然估计了,因此使用EM算法可以解决,在理解EM算法之前需要理解最大释然估计,本节 ...
- 隐马尔可夫(HMM)、前/后向算法、Viterbi算法 再次总结
本总结是是个人为防止遗忘而作,不得转载和商用. 说明:此篇是作者对"隐马尔可夫模型"的第二次总结,因此可以算作对上次总结的查漏补缺以及更进一步的理解,所以很多在第一次总结中已经整理 ...
- 隐马尔可夫(HMM)、前/后向算法、Viterbi算法
HMM的模型 图1 如上图所示,白色那一行描述由一个隐藏的马尔科夫链生成不可观测的状态随机序列,蓝紫色那一行是各个状态生成可观测的随机序列 话说,上面也是个贝叶斯网络,而贝叶斯网络中有这么一种,如下 ...
- python期望输出隐藏_【归纳综述】马尔可夫、隐马尔可夫 HMM 、条件随机场 CRF 全解析及其python实现...
PR Structured Ⅲ:马尔可夫.隐马尔可夫 HMM .条件随机场 CRF 全解析及其python实现 Content 归纳性长文,不断更新中...欢迎关注收藏 本章承接概率图知识 马尔可夫不 ...
- 隐马尔科夫模型(前向后向算法、鲍姆-韦尔奇算法、维特比算法)
隐马尔科夫模型(前向后向算法.鲍姆-韦尔奇算法.维特比算法) 概率图模型是一类用图来表达变量相关关系的概率模型.它以图为表示工具,最常见的是用一个结点表示一个或一组随机变量,结点之间的变表是变量间的概 ...
- 【机器学习】【隐马尔可夫模型-3】后向算法:算法详解+示例讲解+Python实现
0.前排提示 csdn有些数学公式编辑不出来,所以本博用容易书写的表达式来表示专业数学公式,如: (1) 在本博客中用α<T>(i)来表示 (2)在本博客中用[i=1, N]∑来表示 注 ...
最新文章
- python现在第几版-2020 年10月编程语言排行榜,Python 排名逼近第二
- jQuery获取所有父级元素及同级元素及子元素的方法
- 前端学习(2870):Vue路由权限『前后端全解析』1
- 实例9:python
- 一台服务器创建多个ssh_如何创建可用于生产的第一台安全服务器
- 去百度/阿里/腾讯…做测试的,都是什么样的人?
- windows下安装rabbitmq以及php扩展amqp
- 【剑指offer】31、栈的压入和弹出序列
- 用什么软件写html语言,写html代码用什么软件
- 无人机基础知识:多旋翼无人机自动控制原理与算法
- 设置浏览器屏蔽百度推广广告
- Ubuntu下为你的Jupyter Notebook配置桌面快捷方式和应用图标
- 环宇成功签约世界级海外文旅夜游项目,探索夜游新模式!
- 雅虎开始关闭韩国业务并裁员 200 人
- Vue 指令v-for和v-model
- Java毕设项目——超市POS收银管理系统(java+SSM+Maven+Mysql+Jsp)
- IxChariot编辑脚本参数详解及配置
- 职业规划-嵌入式工程师
- 设计分享|单片机数字温度计
- 奔驰老款C200语言设置,【图】奔驰C级隐藏功能设定大全
热门文章
- 学习笔记---将Asp.Net网站发布到IIS的四种方法及注意事项
- TechNet Plus订阅版再度推出6折优惠
- 数据治理是开展数据分析的前提
- android webview缩放功能,在Android WebView中启用/禁用缩放
- python安装失败找不到指定路径_解决安装python库时windows error5 报错的问题
- sqlserver201无效的许可证书_sql提示无效数字
- Spark Streaming三种运行场景
- 牛津词典 2018 年度词汇 ——「有毒」!
- 也来谈一谈js的浅复制和深复制
- 阿里HBase的GC优化实践,能够降低java垃圾回收时间!