【机器学习】一文详尽系列之EM算法
点击上方,选择星标或置顶,每天给你送干货!
阅读大概需要8分钟
跟随小博主,每天进步一丢丢
作者:阿泽
来自:Datawhale
EM 算法,全称 Expectation Maximization Algorithm。期望最大算法是一种迭代算法,用于含有隐变量(Hidden Variable)的概率参数模型的最大似然估计或极大后验概率估计。
思想
EM 算法的核心思想非常简单,分为两步:Expection-Step 和 Maximization-Step。E-Step 主要通过观察数据和现有模型来估计参数,然后用这个估计的参数值来计算上述对数似然函数的期望值;而 M-Step 是寻找似然函数最大化时对应的参数。由于算法会保证在每次迭代之后似然函数都会增加,所以函数最终会收敛。
举例
我们举两个例子来直观的感受下 EM 算法。
2.1 例子 A
第一个例子我们将引用 Nature Biotech 的 EM tutorial 文章中的例子。
2.1.1 背景
假设有两枚硬币 A 和 B,他们的随机抛掷的结果如下图所示:
我们很容易估计出两枚硬币抛出正面的概率:
现在我们加入隐变量,抹去每轮投掷的硬币标记:
Coin | Statistics |
---|---|
Coin * | 5 H, 5 T |
Coin * | 9 H, 1 T |
Coin * | 8 H, 2 T |
Coin * | 4 H, 6 T |
Coin * | 7 H, 3 T |
碰到这种情况,我们该如何估计 和 的值?
我们多了一个隐变量 ,代表每一轮所使用的硬币,我们需要知道每一轮抛掷所使用的硬币这样才能估计 和 的值,但是估计隐变量 Z 我们又需要知道 和 的值,才能用极大似然估计法去估计出 Z。这就陷入了一个鸡生蛋和蛋生鸡的问题。
其解决方法就是先随机初始化 和 ,然后用去估计 Z, 然后基于 Z 按照最大似然概率去估计新的 和 ,循环至收敛。
2.1.2 计算
随机初始化 和
对于第一轮来说,如果是硬币 A,得出的 5 正 5 反的概率为:;如果是硬币 B,得出的 5 正 5 反的概率为:。我们可以算出使用是硬币 A 和硬币 B 的概率分别为:
No | Coin A | Coin B |
---|---|---|
1 | 0.45 | 0.55 |
2 | 0.80 | 0.20 |
3 | 0.73 | 0.27 |
4 | 0.35 | 0.65 |
5 | 0.65 | 0.35 |
从期望的角度来看,对于第一轮抛掷,使用硬币 A 的概率是 0.45,使用硬币 B 的概率是 0.55。同理其他轮。这一步我们实际上是估计出了 Z 的概率分布,这部就是 E-Step。
结合硬币 A 的概率和上一张投掷结果,我们利用期望可以求出硬币 A 和硬币 B 的贡献。以第二轮硬币 A 为例子,计算方式为:
于是我们可以得到:
No | Coin A | Coin B |
---|---|---|
1 | 2.2 H, 2.2 T | 2.8 H, 2.8 T |
2 | 7.2 H, 0.8 T | 1.8 H, 0.2 T |
3 | 5.9 H, 1.5 T | 2.1 H, 0.5 T |
4 | 1.4 H, 2.1 T | 2.6 H, 3.9 T |
5 | 4.5 H, 1.9 T | 2.5 H, 1.1 T |
total | 21.3 H, 8.6 T | 11.7 H, 8.4 T |
然后用极大似然估计来估计新的 和 。
这步就对应了 M-Step,重新估计出了期望值。
如此反复迭代,我们就可以算出最终的参数值。
上述讲解对应下图:
2.2 例子 B
如果说例子 A 需要计算你可能没那么直观,那就举更一个简单的例子:
现在一个班里有 50 个男生和 50 个女生,且男女生分开。我们假定男生的身高服从正态分布:,女生的身高则服从另一个正态分布: 。这时候我们可以用极大似然法(MLE),分别通过这 50 个男生和 50 个女生的样本来估计这两个正态分布的参数。
但现在我们让情况复杂一点,就是这 50 个男生和 50 个女生混在一起了。我们拥有 100 个人的身高数据,却不知道这 100 个人每一个是男生还是女生。
这时候情况就有点尴尬,因为通常来说,我们只有知道了精确的男女身高的正态分布参数我们才能知道每一个人更有可能是男生还是女生。但从另一方面去考量,我们只有知道了每个人是男生还是女生才能尽可能准确地估计男女各自身高的正态分布的参数。
这个时候有人就想到我们必须从某一点开始,并用迭代的办法去解决这个问题:我们先设定男生身高和女生身高分布的几个参数(初始值),然后根据这些参数去判断每一个样本(人)是男生还是女生,之后根据标注后的样本再反过来重新估计参数。之后再多次重复这个过程,直至稳定。这个算法也就是 EM 算法。
推导
给定数据集,假设样本间相互独立,我们想要拟合模型 到数据的参数。根据分布我们可以得到如下似然函数:
第一步是对极大似然函数取对数,第二步是对每个样本的每个可能的类别 z 求联合概率分布之和。如果这个 z 是已知的数,那么使用极大似然法会很容易。但如果 z 是隐变量,我们就需要用 EM 算法来求。
事实上,隐变量估计问题也可以通过梯度下降等优化算法,但事实由于求和项将随着隐变量的数目以指数级上升,会给梯度计算带来麻烦;而 EM 算法则可看作一种非梯度优化方法。
对于每个样本 i,我们用 表示样本 i 隐含变量 z 的某种分布,且 满足条件()。
我们将上面的式子做以下变化:
上面式子中,第一步是求和每个样本的所有可能的类别 z 的联合概率密度函数,但是这一步直接求导非常困难,所以将其分母都乘以函数 ,转换到第二步。从第二步到第三步是利用 Jensen 不等式。
我们来简单证明下:
Jensen 不等式给出:如果 是凹函数,X 是随机变量,则 ,当 严格是凹函数是,则 ,凸函数反之。当 时,即为常数时等式成立。
我们把第一步中的 函数看成一个整体,由于 的二阶导数小于 0,所以原函数为凹函数。我们把 看成一个概率 ,把 看成 z 的函数 。根据期望公式有:
根据 Jensen 不等式的性质:
证明结束。
通过上面我们得到了: 的形式(z 为隐变量),那么我们就可以通过不断最大化 的下界来使得 不断提高。下图更加形象:
这张图的意思就是:首先我们固定 ,调整 使下界 上升至与 在此点 处相等(绿色曲线到蓝色曲线),然后固定 ,调整 使下界 达到最大值( 到 ),然后再固定 ,调整 ,一直到收敛到似然函数 的最大值处的 。
也就是说,EM 算法通过引入隐含变量,使用 MLE(极大似然估计)进行迭代求解参数。通常引入隐含变量后会有两个参数,EM 算法首先会固定其中的第一个参数,然后使用 MLE 计算第二个变量值;接着通过固定第二个变量,再使用 MLE 估测第一个变量值,依次迭代,直至收敛到局部最优解。
但是这里有两个问题:
什么时候下界 与 相等?
为什么一定会收敛?
首先第一个问题,当 时,即为常数时等式成立:
做个变换:
其中 ,所以可以推导出:
因此得到了:
至此我们推出了在固定参数下,使下界拉升的 的计算公式就是后验概率,同时解决了 如何选择的问题。这就是我们刚刚说的 EM 算法中的 E-Step,目的是建立 的下界。接下来得到 M-Step 目的是在给定 后调整 ,从而极大化似然函数 的下界 。
对于第二个问题,为什么一定会收敛?
这边简单说一下,因为每次 更新时(每次迭代时),都可以得到更大的似然函数,也就是说极大似然函数时单调递增,那么我们最终就会得到极大似然估计的最大值。
但是要注意,迭代一定会收敛,但不一定会收敛到真实的参数值,因为可能会陷入局部最优。所以 EM 算法的结果很受初始值的影响。
另一种理解
坐标上升法(Coordinate ascent):
途中直线为迭代优化路径,因为每次只优化一个变量,所以可以看到它没走一步都是平行与坐标轴的。
EM 算法类似于坐标上升法,E 步:固定参数,优化 Q;M 步:固定 Q,优化参数。交替将极值推向最大。
应用
在高斯混合模型和 K-means 中有很大的用处。
参考
[1]《机器学习》周志华
[2] https://www.zhihu.com/question/27976634
[3] https://blog.csdn.net/zouxy09/article/details/8537620
[4] Do, C. B., & Batzoglou, S. (2008). What is the expectation maximization algorithm?. Nature biotechnology, 26(8), 897.
方便交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
记得备注呦
推荐阅读:
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency Parsing
【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货 | 那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作
让更多的人知道你“在看”
【机器学习】一文详尽系列之EM算法相关推荐
- 一文详尽系列之EM算法
点击上方"Datawhale",选择"星标"公众号 第一时间获取价值内容 EM 算法,全称 Expectation Maximization Algorithm ...
- 一文详尽系列之K-means算法
点击上方"Datawhale",选择"星标"公众号 第一时间获取价值内容 K-means 是我们最常用的基于距离的聚类算法,其认为两个目标的距离越近,相似度越大 ...
- 机器学习系列之EM算法
机器学习系列之EM算法 我讲EM算法的大概流程主要三部分:需要的预备知识.EM算法详解和对EM算法的改进. 一.EM算法的预备知识 1.极大似然估计 (1)举例说明:经典问题--学生身高问题 我们需要 ...
- EM算法:期望最大算法,原来你是这么得灵性,很多机器学习的参数都是通过EM算法求解的
EM算法:期望最大算法,原来你是这么得灵性,很多机器学习的参数都是通过EM算法求解的 提示:系列被面试官问的问题,我自己当时不会,所以下来自己复盘一下,认真学习和总结,以应对未来更多的可能性 关于互联 ...
- em算法怎么对应原有分类_机器学习系列之EM算法
我讲EM算法的大概流程主要三部分:需要的预备知识.EM算法详解和对EM算法的改进. 一.EM算法的预备知识 1.极大似然估计 (1)举例说明:经典问题--学生身高问题 我们需要调查我们学校的男生和女生 ...
- em模型补缺失值_ML4fun系列(六):EM算法
EM算法 最早接触EM算法的地方想必就是在对高斯混合模型进行求解的时候.那就从高斯混合模型开始了解EM算法的工作机理. 高斯混合模型(GMM) 高斯混合模型是一种无监督学习方法.他是用多个高斯分布函数 ...
- 一文详尽系列之逻辑回归
点击上方"Datawhale",选择"星标"公众号 第一时间获取价值内容 模型介绍 Logistic Regression 是一个非常经典的算法,其中也包含了非 ...
- 一文详尽系列之模型评估指标
点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 在机器学习领域通常会根据实际的业务场景拟定相应的不同的业务指标,针 ...
- 回文数系列题目(经典算法)
回文数 时间限制:1000 ms | 内存限制:65535 KB 难度:0 描述 请寻找并输出1至1000000之间的数m,它满足m.m^2和m^3均为回文数.回文数大家都知道吧,就是各位数字左右 ...
- 一文详尽之支持向量机算法!
Datawhale干货 作者:小一,Datawhale优秀学习者 寄语:本文介绍了SVM的理论,细致说明了"间隔"和"超平面"两个概念:随后,阐述了如何最大化间 ...
最新文章
- LightGBM是什么?相对于xgboost有什么优势?如何使用randomSearchCV和lightgbm进行组合获取最优参数组合?
- python画误差棒/带
- C# Random循环生成随机数重复问题解决方案
- 如何用计算机弹出ink sans,INKSANS模拟器PC
- [JavaWeb-MySQL]DQL_查询表中记录,语句
- day27 CRM delete action 嵌入CRM
- Python游戏开发入门2 壁球小游戏与图像的基本使用
- oracle 64位数据源,64位Windows 7下32位 Oracle(含XE)ODBC 数据源的配置
- 新宝解读大盘单边攀升突破3600点 大金融崛起
- LVDS通信接口详细介绍
- 【MODBUS通讯协议】
- 数据库中如何求候选码
- Win7系统安装软件提示不是有效的win32应用程序的解决方法
- 优秀的 icon 的免费网站,看这篇就够了
- 强大的python中如何画出美观的散点图
- paypal支付 paypal网站付款标准版问题解决
- matlab 自动发邮件,matlab实现发邮件
- 8.3 折特惠票仅剩 4 天!「2019 嵌入式智能国际大会」全日程大公开!
- 安装Windows server 2003系统后无法安装显卡驱动的解决办法 (转载)
- android 一分钟掌握圆形布局原理--圆形菜单控件 so easy