高斯混合模型与EM算法求解
高斯混合模型
文章目录
- 高斯混合模型
- EM算法
- 高斯混合模型参数估计
- 1、样本分类已知情况下的GMM
- 2、样本分类未知的情况下的GMM
混合模型是一个用来表示在总体分布中含有K个子分布的概率模型,也就是说,混合模型表示了观测数据在总体中的概率分布,它由K个子分布组成的混合分布。
高斯混合模型可以看作是由K个单高斯模型组合而成的模型
定义如下:
高斯混合模型的概率分布为:
对于单高斯模型,可以用最大似然法估计参数θ\thetaθ的值
取对数,连乘转换为连加
对于高斯混合模型,对数似然则为:
EM算法
例子:
EM算法详解+通俗例子理解_呆呆象呆呆的博客-CSDN博客_em算法实例
对于M个相互独立的样本 x=(x(1),x(2),...,x(m))x=(x^{(1)},x^{(2)},...,x^{(m)})x=(x(1),x(2),...,x(m)),对应的隐含数据z=(z(1),z(2),..,z(m))z=(z^{(1)},z^{(2)},..,z^{(m)})z=(z(1),z(2),..,z(m)),此时(x,z)(x,z)(x,z)为完全数据,则观测数据x(i)x^{(i)}x(i)的概率为P(x(i)∣θ)P(x^{(i)}|\theta)P(x(i)∣θ),完全数据(x(i),z(i))(x^{(i)},z^{(i)})(x(i),z(i))的似然函数为P(x(i),z(i)∣θ)P(x^{(i)},z^{(i)}|\theta)P(x(i),z(i)∣θ)
关于隐含数据分布Qi(z(i))Q_i(z^{(i)})Qi(z(i)),∑zQi(z)=1,Qi(z)∈[0,1]\sum_zQ_i(z)=1, Q_i(z)\in [0,1]∑zQi(z)=1,Qi(z)∈[0,1]
可以把上式Qi(z)Q_i(z)Qi(z)看成概率
用到了Jensen不等式
由JensenJensenJensen不等式可知,等式成立的条件是随机变量时常数,则有
对于任意的i,我们得到
方程两边同时累加和:
E步:计算联合分布的条件概率期望:
根据参数的初始值或上一次迭代的模型参数来计算隐含变量的后验概率,其实就是隐含变量的期望值。
M步:极大化L(θ)L(\theta)L(θ),得到θ\thetaθ
首先我们固定 θ\thetaθ,调整Q(z)Q ( z )Q(z) 使下界J(z,Q)J ( z , Q )J(z,Q) 上升至与L(θ)L ( θ )L(θ) 在此点θ\thetaθ处相等,然后固定Q(z)Q ( z )Q(z),调整θ\thetaθ使下界J(z,Q)J ( z , Q )J(z,Q) 达到最大值θt\theta_tθt
高斯混合模型参数估计
1、样本分类已知情况下的GMM
设样本容量为N,总类别为K,属于K个分类的样本数量分别是N1,N2,...,NKN_1,N_2,...,N_KN1,N2,...,NK
属于第k个分类的样本集合为L(k)L(k)L(k)
第k个类别的概率 αk=NkN\alpha_k=\frac{N_k}{N}αk=NNk
第k类的均值 μk=1Nk∑x∈L(x)x\mu_k = \frac{1}{N_k}\displaystyle\sum_{x\in L(x)}xμk=Nk1x∈L(x)∑x
第k类的协方差: Σk=1Nk∑x∈L(x)(x−μk)(x−μk)T\Sigma_k = \frac{1}{N_k}\displaystyle\sum_{x\in L(x)}(x-\mu_k)(x-\mu_k)^TΣk=Nk1x∈L(x)∑(x−μk)(x−μk)T
2、样本分类未知的情况下的GMM
论文中:
logL(θ)=∑n=1Nlog∑k=1KπkN(Rn∣0,Σk)logL(\theta)=\displaystyle\sum^N_{n=1}log\displaystyle\sum^K_{k=1}\pi_kN(R_n|0,\Sigma_k)logL(θ)=n=1∑Nlogk=1∑KπkN(Rn∣0,Σk)
NNN为样本的个数,KKK为子高斯的个数,πk\pi_kπk为混合系数,RnR_nRn为第n个样本的雨线
E步:
假设模型参数已知的情况下求隐含变量z,E步就是求R由各个子高斯生成的概率
γnk\gamma_{nk}γnk就是样本n属于第k个高斯的概率
M步:
属于第k个高斯的总个数(概率):<img
属于第K类的期望:
$\mu_k=\frac{1}{N_k}\displaystyle\sum^N_{n=1}\gamma_{nk}R_n$
属于第K类的方差:
通过最大似然调整每个高斯的均值方差。
通过最大似然调整每个高斯的均值方差。
高斯混合模型与EM算法求解相关推荐
- 详解高斯混合模型与EM算法
详解高斯混合模型与EM算法 详解高斯混合模型与EM算法 高斯混合模型 单高斯模型(Gaussian single model, GSM) 一维高斯分布 多维高斯分布 混合高斯模型(Gaussian m ...
- 机器学习 : 高斯混合模型及EM算法
Mixtures of Gaussian 这一讲,我们讨论利用EM (Expectation-Maximization)做概率密度的估计.假设我们有一组训练样本 x(1),x(2),...x(m) { ...
- GMM高斯混合模型及EM算法(matlab实现)
单元 %绘制男女生身高的GMM clc clear all %男女生共取2000人,女生平均身高163,男声平均身高180 male=180+sqrt(10)*randn(1,1000); %产生均值 ...
- EM算法:期望最大算法,原来你是这么得灵性,很多机器学习的参数都是通过EM算法求解的
EM算法:期望最大算法,原来你是这么得灵性,很多机器学习的参数都是通过EM算法求解的 提示:系列被面试官问的问题,我自己当时不会,所以下来自己复盘一下,认真学习和总结,以应对未来更多的可能性 关于互联 ...
- ITK学习笔记(八) ITK高斯混合模型 GMM EM
ITK学习笔记(八) ITK高斯混合模型 GMM EM 1.高斯混合模型 2.变分贝叶斯高斯混合 3.ITK中的GMM.EM 1.高斯混合模型 sklearn.mixture是一个能够学习高斯混合模型 ...
- 主题模型(3)——PLSA模型及其EM算法求解
之前整理过两篇关于主题模型的博客<文本建模之Unigram Model,PLSA与LDA>和<再看LDA主题模型>,主要是整理了主题模型的由来和推导过程,关于模型参数怎么计算没 ...
- GMM高斯混合模型学习笔记(EM算法求解)
提出混合模型主要是为了能更好地近似一些较复杂的样本分布,通过不断添加component个数,能够随意地逼近不论什么连续的概率分布.所以我们觉得不论什么样本分布都能够用混合模型来建模.由于高斯函数具有一 ...
- GMM 模型与EM算法求解详细推导
1. 高斯模型与高维高斯模型介绍 高斯模型也就是正态分布模型,该模型最早可见于我们的高中数学教材中.闻其名知其意,正态分布是自然界中普遍存在的一种分布.比如,考试成绩,人的智力水平等等.都是大致呈现为 ...
- 机器学习(八)——在线学习、K-Means算法、混合高斯模型和EM算法
http://antkillerfarm.github.io/ 贝叶斯统计和规则化(续) p(θ|S)p(\theta\vert S)可由前面的公式得到. 假若我们要求期望值的话,那么套用求期望的公式 ...
最新文章
- HttpURLConnection 请求
- Genymotion模拟器拖入文件报An error occured while deploying the file的错误
- android中拖动文字实现功能,Android:图片中叠加文字,支持拖动改变位置
- vue 实现瀑布流布局的 组件/插件总汇:vue-waterfall、vue-waterfall-easy、vue-virtual-collection、vue-grid-layout
- IM即时通讯服务将成联结谷歌、雅虎纽带(图)
- 当剩下最后一颗×××时,各国军人的表现!
- postman-SSL证书问题-支持HTTPS请求
- install java 7 or 8 on ubuntu14
- 第三章 进化算法之遗传算法及其应用
- 单测量矢量多目标精确DOA估计的高效稀疏表示算法
- c语言宠物店管理系统,宠物店信息管理系统的设计课程设计报告精选.doc
- 2020最新版《神经网络与深度学习》中文版更新完毕,pdf开放下载
- 微信小程序学习笔记:选项卡
- 800元组装一台3D打印机全教程流程
- 爬虫抓取百度指数思路总结
- python dataframe isin,使用多个条件获取新的数据帧pd.Dataframe.isin()
- 学习笔记:Qt程序打包发布
- Citavi——令人激动的文献管理工具
- 英语语法笔记——并列句(二)
- 注重移动端体验,新商云带你开启社交电商新时代