机器学习中的数学ch11:基于高斯混合模型的密度估计(Density Estimation with Gaussian Mixture Models)
文章目录
- 高斯混合模型(Gaussian Mixture Model)
- 利用极大似然估计进行参数学习(Parameter Learning via Maximum Likelihood)
- 责任(Responsibilities)
- 更新均值(Updating the Means)
- 更新协方差(Updating the Covariances)
- 更新混合权重(Updating the Mixture Weights)
- 实例(Example)
- 期望最大化算法(EM Algorithm)
- 潜变量角度(Latent-Variable Perspective)
- 生成过程和概率模型(Generative Process and Probabilistic Model)
- 似然(Likelihood)
- 后验分布(Posterior Distribution)
- 拓展到整个数据集(Extension to a Full Dataset)
- 期望最大化算法重新回顾(EM Algorithm Revisited)
- 拓展阅读
在本章节中,我们会介绍关于密度估计的几个主要的概念,例如: 期望最大化算法(expectation maximization (EM) algorithm)。
当我们使用数据进行模型训练的时候,我们需要将数据按照一些方法表示出来,最常见的方法就是将数据点本身代表数据,如下图:
但是当数据集很大的时候,这种方法就不是很有效了(在上图这种多模型数据中的表现也不好)。在密度估计中,我们使用参数族(例如高斯分布、贝塔分布等)中的密度来表示数据。例如,我们可以找到数据集的均值和方差,然后利用高斯模型表示这些数据,我们可以认为数据集就是从这些模型中抽样出来的。
但是 ,在实践过程中,这些模型有时候不能很好地表示这些数据,也就是说这些模型的具有 有限的建模能力(have limited modeling capabilities)。所以,我们介绍一种更通用的数据模型: 混合模型(mixture model)。
混合模型可以将一个概率分布用K种不同的基本分布的 凸组合(convex combination)表示:
p(x)=∑k=1Kπkpk(x)0≤πk≤1,∑k=1Kπk=1p(x)=\sum^K_{k=1}\pi_k p_k(x)\\ 0\le \pi_k\le 1,\quad \sum^K_{k=1}\pi_k=1p(x)=k=1∑Kπkpk(x)0≤πk≤1,k=1∑Kπk=1
其中, pkp_kpk为基本分布(高斯分布,贝塔分布等), πk\pi_kπk为 混合权重(mixture weight),混合权重能够保证混合模型的概率密度分布的总积分仍旧是1。通过将基本模型进行混合,混合模型能够很好地表示一些多模型数据(如上图中数据)。
在本章中,主要讨论 高斯混合模型(Gaussian mixture models (GMMs))。我们的目标是通过最大化模型参数的似然来训练GMMs。这里我们不会项之前那样找到一个闭型(closed-form,解析解)的极大似然估计的解,而是找到一组相互独立的联立方程(dependent simultaneous equation),解这些方程只能通过迭代的方式。
高斯混合模型(Gaussian Mixture Model)
高斯混合模型是一个密度模型,在这个模型中,我们将K个高斯分布组合起来,即N(x∣μk,Σk)\mathcal N(x|\mu_k,\Sigma_k)N(x∣μk,Σk):
p(x∣θ)=∑k=1KπkN(x∣μk.Σk)0≤πk≤1,∑k=1Kπk=1p(x|\theta)= \sum^K_{k=1}\pi_k\mathcal N(x|\mu_k.\Sigma_k)\\0\le \pi_k\le1,\sum^K_{k=1}\pi_k=1p(x∣θ)=k=1∑KπkN(x∣μk.Σk)0≤πk≤1,k=1∑Kπk=1
其中,θ:={μk.Σk,πk:k=1,⋯,K}\theta := \{\mu_k.\Sigma_k,\pi_k:k = 1,\cdots,K\}θ:={μk.Σk,πk:k=1,⋯,K}为模型参数的整合参数。这个混合模型能够在数据处理的时候提供更高的灵活度。下图是一个高斯混合模型的曲线图:
利用极大似然估计进行参数学习(Parameter Learning via Maximum Likelihood)
假设有一个从未知分布p(x)p(x)p(x)中抽样得到的独立同分布的数据集X={x1,⋯,xN}\mathcal X=\{x_1,\cdots,x_N\}X={x1,⋯,xN},我们的目标是找到能够更好地表示这个未知分布的GMM的参数θ\thetaθ。这里我们使用极大似然估计求解参数,由于数据都是独立同分布的,所以我们可以对似然函数进行分解:
p(X∣θ)=∏n=1Np(xn∣θ),p(xn∣θ)=∑k=1KπkN(xn∣μk,Σk)p(\mathcal X|\theta)=\prod^N_{n=1}p(x_n|\theta),\quad p(x_n|\theta)=\sum^K_{k=1}\pi_k\mathcal N(x_n|\mu_k,\Sigma_k)p(X∣θ)=n=1∏Np(xn∣θ),p(xn∣θ)=k=1∑KπkN(xn∣μk,Σk)
其中的每一个p(xn∣θ)p(x_n|\theta)p(xn∣θ)都是一个高斯混合密度,所以对应的自然对数似然为:
logp(X∣θ)=∑n=1Nlogp(xn∣θ)=∑n=1Nlog∑k=1KπkN(xn∣μk,Σk)⏟=:L\log p(\mathcal X|\theta)=\sum^N_{n=1}\log p(x_n|\theta)=\underbrace{\sum^N_{n=1}\log \sum^K_{k=1}\pi_k \mathcal N(x_n|\mu_k,\Sigma_k)}_{=: \mathcal L}logp(X∣θ)=n=1∑Nlogp(xn∣θ)==:Ln=1∑Nlogk=1∑KπkN(xn∣μk,Σk)
我们的目标就是找到能够最小化这个自然对数似然的模型参数,我们原先讨论极大似然估计的解的时候,是将这个似然函数对参数球偏导,然后将这个偏导设为0,求解出参数的值。但是在这里我们不能求出一个闭型的解。
不能求出闭型的解的原因?
原先我们讨论的是单个高斯分布,所以对应的自然对数概率分布为:
logN(x∣μ,Σ)=−D2log(2π)−12logdet(Σ)−12(x−μ)⊤Σ−1(x−μ)\log \mathcal N(x|\mu,\Sigma)=-\frac D2\log (2\pi)-\frac 12\log\det(\Sigma)-\frac 12(x-\mu)^\top \Sigma^{-1}(x-\mu)logN(x∣μ,Σ)=−2Dlog(2π)−21logdet(Σ)−21(x−μ)⊤Σ−1(x−μ)
这个简单的形式能够让我们找到闭型的解,但是对于混合函数,其中的log后面的K次求和没有办法拆开,所以也就很难找到闭型的解了。
所以我们使用迭代的方式找到模型的最佳参数θML\theta_{ML}θML,这个方法就是期望最大化算法(expectation maximization (EM) algorithm),EM的关键思想就是更新其中一个参数,而保持其他参数固定。
由于函数的局部最优解出的梯度都是0,所以可以将L\mathcal LL对参数分别进行求偏导,然后将这些偏导设为0,这是最优化自然对数似然的必要条件:
∂L∂μk=0⊤⟺∑n=1N∂logp(xn∣θ)∂μk=0⊤,∂L∂Σk=0⟺∑n=1N∂logp(xn∣θ)∂Σk=0∂L∂πk=0⟺∑n=1N∂logp(xn∣θ)∂πk=0\begin{aligned} &\frac{\partial \mathcal{L}}{\partial \boldsymbol{\mu}_{k}}=\mathbf{0}^{\top} \Longleftrightarrow \sum_{n=1}^{N} \frac{\partial \log p\left(\boldsymbol{x}_{n} \mid \boldsymbol{\theta}\right)}{\partial \boldsymbol{\mu}_{k}}=\mathbf{0}^{\top}, \\ &\frac{\partial \mathcal{L}}{\partial \boldsymbol{\Sigma}_{k}}=\mathbf{0} \Longleftrightarrow \sum_{n=1}^{N} \frac{\partial \log p\left(\boldsymbol{x}_{n} \mid \boldsymbol{\theta}\right)}{\partial \boldsymbol{\Sigma}_{k}}=\mathbf{0} \\ &\frac{\partial \mathcal{L}}{\partial \pi_{k}}=0 \Longleftrightarrow \sum_{n=1}^{N} \frac{\partial \log p\left(\boldsymbol{x}_{n} \mid \boldsymbol{\theta}\right)}{\partial \pi_{k}}=0 \end{aligned} ∂μk∂L=0⊤⟺n=1∑N∂μk∂logp(xn∣θ)=0⊤,∂Σk∂L=0⟺n=1∑N∂Σk∂logp(xn∣θ)=0∂πk∂L=0⟺n=1∑N∂πk∂logp(xn∣θ)=0
由于L\mathcal LL是一个复合函数,所以可以使用链式法则进行求偏导:
∂logp(xn∣θ)∂θ=1p(xn∣θ)∂p(xn∣θ)∂θ\frac{\partial\log p(x_n|\theta)}{\partial \theta}= \frac {1}{p(x_n|\theta)}\frac{\partial p(x_n|\theta)}{\partial \theta}∂θ∂logp(xn∣θ)=p(xn∣θ)1∂θ∂p(xn∣θ)
其中:p(xn∣θ)=∑k=1KπkN(xn∣μk,Σk)p(x_n|\theta)=\sum^K_{k=1}\pi_k\mathcal N(x_n|\mu_k,\Sigma_k)p(xn∣θ)=∑k=1KπkN(xn∣μk,Σk); θ:={μk.Σk,πk:k=1,⋯,K}\theta := \{\mu_k.\Sigma_k,\pi_k:k = 1,\cdots,K\}θ:={μk.Σk,πk:k=1,⋯,K}.接下来主要介绍求解上述的几个等式。但是在求解之前我们介绍一个很重要的概念:责任(responsibilities)
责任(Responsibilities)
我们将第k个混合成分对第n个数据点的责任定义为:
rnk:=πkN(xn∣μk,Σk)∑j=1KπjN(xn∣μj,Σj)r_{nk}:=\frac{\pi_k\mathcal N(x_n|\mu_k,\Sigma_k)}{\sum^K_{j=1}\pi_j\mathcal N(x_n|\mu_j,\Sigma_j)}rnk:=∑j=1KπjN(xn∣μj,Σj)πkN(xn∣μk,Σk)
这个第k个混合成分(Mixture Component)对数据点xnx_nxn的责任rnkr_{nk}rnk与下面的似然函数呈比例:
p(xn∣πk,μk,Σk)=πkN(xn∣μk,Σk)p(x_n|\pi_k,\mu_k,\Sigma_k)= \pi_k\mathcal N(x_n|\mu_k,\Sigma_k)p(xn∣πk,μk,Σk)=πkN(xn∣μk,Σk)
如果一个数据点与其中的混合成分越匹配(模型对应的部分能够很好地表示数据),那么相对应的责任也就越大。一个数据点的责任可以使用一个规范化的概率向量表示:rn:=[rn1,⋯,rnK]⊤∈RK,∑krnk=1,rnk≥0r_n:=[r_{n1,\cdots,r_{nK}}]^\top\in \mathbb R^K, \sum_kr_{nk}=1,r_{nk}\ge0rn:=[rn1,⋯,rnK]⊤∈RK,∑krnk=1,rnk≥0。(? rnr_nrn满足Boltzmann/Gibbs分布)
可以将责任理解为数据点在各个混合成分中,所占有的比例,也就是各混合成分得到这个数据点的概率(一个不是很准确的理解就是,这个数据在各个混合成分之间的分量).
接下来确定模型参数的时候,都需要依赖于这个责任,我们先改变一个参数,而保持其他的参数不变,然后计算对应的责任,之后不断将这两个步骤进行迭代,知道得到一个局部最优解。其实,正是二者与责任的高度相关性,使得最终的解没有一个闭型的解。
更新均值(Updating the Means)
定理:(GMM均值的更新)GMM的均值参数μk,k=1,⋯,K\mu_k,k=1,\cdots,Kμk,k=1,⋯,K为:
μknew=∑n=1Nrnkxn∑n=1Nrnk\mu^{new}_{k}=\frac{\sum^N_{n=1}r_{nk}x_n}{\sum^N_{n=1}r_{nk}}μknew=∑n=1Nrnk∑n=1Nrnkxn
由于更新一个混合模型的参数需要所有混合模型的均值、协方差矩阵和混合权重,所以我们不能一次性为所有的μk\mu_kμk找到闭型的解。(我们需要同步更新?像梯度下降法那样?)
证明:这里对定理进行简单的证明,但是不做详细说明
结合之前的结论,我们求解似然函数对均值的偏导:
∂p(xn∣θ)∂μk=∑j=1Kπj∂N(xn∣μj,Σj)∂μk=πk∂N(xn∣μk,Σk)∂μk=πk(xn−μk)⊤Σk−1N(xn∣μk,Σk)\begin{aligned} \frac{\partial p\left(\boldsymbol{x}_{n} \mid \boldsymbol{\theta}\right)}{\partial \boldsymbol{\mu}_{k}} &=\sum_{j=1}^{K} \pi_{j} \frac{\partial \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{j}, \boldsymbol{\Sigma}_{j}\right)}{\partial \boldsymbol{\mu}_{k}}=\pi_{k} \frac{\partial \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right)}{\partial \boldsymbol{\mu}_{k}} \\ &=\pi_{k}\left(\boldsymbol{x}_{n}-\boldsymbol{\mu}_{k}\right)^{\top} \boldsymbol{\Sigma}_{k}^{-1} \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right) \end{aligned} ∂μk∂p(xn∣θ)=j=1∑Kπj∂μk∂N(xn∣μj,Σj)=πk∂μk∂N(xn∣μk,Σk)=πk(xn−μk)⊤Σk−1N(xn∣μk,Σk)
将上述的似然函数带入到对代价函数的偏导中:
∂L∂μk=∑n=1N∂logp(xn∣θ)∂μk=∑n=1N1p(xn∣θ)∂p(xn∣θ)∂μk=∑n=1N(xn−μk)⊤Σk−1πkN(xn∣μk,Σk)∑j=1KπjN(xn∣μj,Σj)⏟=rnk=∑n=1Nrnk(xn−μk)⊤Σk−1\begin{aligned} \frac{\partial \mathcal{L}}{\partial \boldsymbol{\mu}_{k}} &=\sum_{n=1}^{N} \frac{\partial \log p\left(\boldsymbol{x}_{n} \mid \boldsymbol{\theta}\right)}{\partial \boldsymbol{\mu}_{k}}=\sum_{n=1}^{N} \frac{1}{p\left(x_{n} \mid \theta\right)} \frac{\partial p\left(\boldsymbol{x}_{n} \mid \boldsymbol{\theta}\right)}{\partial \boldsymbol{\mu}_{k}} \\ &=\sum_{n=1}^{N}\left(\boldsymbol{x}_{n}-\boldsymbol{\mu}_{k}\right)^{\top} \boldsymbol{\Sigma}_{k}^{-1}\underbrace{\frac{\pi_{k} \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right)}{\sum_{j=1}^{K} \pi_{j} \mathcal{N}\left(x_{n} \mid \mu_{j}, \Sigma_{j}\right)}}_{=r_{nk}} = \sum^N _{n=1} r_{n k}\left(\boldsymbol{x}_{n}-\boldsymbol{\mu}_{k}\right)^{\top} \boldsymbol{\Sigma}_{k}^{-1} \end{aligned} ∂μk∂L=n=1∑N∂μk∂logp(xn∣θ)=n=1∑Np(xn∣θ)1∂μk∂p(xn∣θ)=n=1∑N(xn−μk)⊤Σk−1=rnk∑j=1KπjN(xn∣μj,Σj)πkN(xn∣μk,Σk)=n=1∑Nrnk(xn−μk)⊤Σk−1
为了求解μknew\mu^{new}_{k}μknew,需要求解∂L(μnewk)∂μk=0⊤\frac{\partial \mathcal L(\mu^{new_k})}{\partial \mu_k}=0^\top∂μk∂L(μnewk)=0⊤:
∑n=1Nrnkxn=∑n=1Nrnkμknew⇔μknew=1Nk∑n=1Nrnkxn\sum^N_{n=1}r_{nk}x_n=\sum^N_{n=1}r_{nk}\mu_k^{new}\Leftrightarrow \mu^{new}_k=\frac{1}{N_k}\sum^N_{n=1}r_{nk}x_nn=1∑Nrnkxn=n=1∑Nrnkμknew⇔μknew=Nk1n=1∑Nrnkxn
我们定义第k个混合元素对数据集的总贡献为:
Nk:=∑n=1NrnkN_k:=\sum^N_{n=1}r_{nk}Nk:=n=1∑Nrnk
得证。
这个均值更新的过程还可以使用重要性加权的蒙特卡罗估计(importance-weighted Monte Carlo estimate)理解。数据点xnx_nxn的重要性权值就是所有混合成份对数据点的责任(存疑where the importance weights of data point xnx_nxn are the responsibilities rnkr_{nk}rnk of the kth cluster for xn,k=1,⋯Kx_n, k = 1, \cdots Kxn,k=1,⋯K.)。
可以将均值的更新过程想象成均值点被各个数据点拉着移动,而每个数据点对均值点的力的大小就是责任,如下图:
也可以将更新过程理解为在下式分布中的所有的数据点的期望值:
rk:=[r1k,⋯,rNk]⊤/Nkr_k:=[r_{1k},\cdots,r_{Nk}]^\top/N_krk:=[r1k,⋯,rNk]⊤/Nk
这也是一个规范化的概率向量:
μk←Erk[X]\mu_k\leftarrow \mathbb E_{rk}[\mathcal X]μk←Erk[X]
更新协方差(Updating the Covariances)
定理(更新GMM的协方差)更新协方差参数:
Σknew=1Nk∑n=1Nrnk(xn−μk)(xn−μk)⊤\Sigma^{new}_k=\frac1N_k\sum^N_{n=1}r_{nk}(x_n-\mu_k)(x_n-\mu_k)^\topΣknew=N1kn=1∑Nrnk(xn−μk)(xn−μk)⊤
证明过程(原书p356)比较麻烦,这里略过.
与更新均值相似,更新协方差可以理解为是中心化数据X~k:={x1−μk,⋯.xN−μk}\tilde \mathcal X_k:=\{x_1-\mu_k,\cdots.x_N-\mu_k\}X~k:={x1−μk,⋯.xN−μk}的平方的重要性加权期望值。
更新混合权重(Updating the Mixture Weights)
定理:
πknew=NkN,k=1,⋯,K\pi^{new}_k=\frac{N_k}{N},\quad k=1,\cdots,Kπknew=NNk,k=1,⋯,K
其中,N是数据点的个数。
证明:
略(原书p358)
关于权重的更新即为第k个混合成分全部责任与数据点的个数的比。因为N=∑kNkN=\sum_kN_kN=∑kNk也可以理解为所有混合成分的的所有责任的总和,所以πk\pi_kπk可以理解为第k个混合成分对于整个数据集的相对重要性。
由于Nk=∑i=1NrnkN_k=\sum^N_{i=1}r_{nk}Nk=∑i=1Nrnk的更新等式依赖于责任,所以更新这个式子需要依赖于其他的所有参数:πj,μj,Σj,j=1,⋯,K\pi_j,\mu_j,\Sigma_j,j=1,\cdots,Kπj,μj,Σj,j=1,⋯,K
实例(Example)
初始化
假设一个一维数据集X={−3,−2.5,−1,0,2,4,5}\mathcal X=\{-3,-2.5,-1,0,2,4,5\}X={−3,−2.5,−1,0,2,4,5},现在有一个由三个成分混合而成的GMM,混合成份分别为:
p1(x)=N(x∣−4,1)p2(x)=N(x∣0,0.2)p3(x)=N(x∣8,3)\begin{aligned} p_1(x) &= \mathcal N(x|-4,1) \\ p_2(x) &= \mathcal N(x|0,0.2)\\ p_3(x) &= \mathcal N(x|8,3) \end{aligned}p1(x)p2(x)p3(x)=N(x∣−4,1)=N(x∣0,0.2)=N(x∣8,3)
初始化权重为:π1=π2=π3=13\pi_1=\pi_2=\pi_3=\frac13π1=π2=π3=31,在坐标中表示为:
责任:
[1.00.00.01.00.00.00.0570.9430.00.0010.9990.00.00.0660.9340.00.01.00.00.01.0]∈RN×K.\left[\begin{array}{ccc} 1.0 & 0.0 & 0.0 \\ 1.0 & 0.0 & 0.0 \\ 0.057 & 0.943 & 0.0 \\ 0.001 & 0.999 & 0.0 \\ 0.0 & 0.066 & 0.934 \\ 0.0 & 0.0 & 1.0 \\ 0.0 & 0.0 & 1.0 \end{array}\right] \in \mathbb{R}^{N \times K} . ⎣⎢⎢⎢⎢⎢⎢⎢⎢⎡1.01.00.0570.0010.00.00.00.00.00.9430.9990.0660.00.00.00.00.00.00.9341.01.0⎦⎥⎥⎥⎥⎥⎥⎥⎥⎤∈RN×K.
第n行告诉我们对xnx_nxn的所有混合成分的责任,责任之和为1,列告诉我们一个混合成分对所有的数据集的责任的情况。
更新均值
经计算,均值的变化为:
μ1:−4→−2.7μ2:0→−0.4μ3:8→3.7\begin{aligned} & \mu_1:-4\rightarrow -2.7\\ & \mu_2:0\rightarrow -0.4\\ & \mu_3:8\rightarrow3.7 \end{aligned}μ1:−4→−2.7μ2:0→−0.4μ3:8→3.7
变化形式表现在图中为:;
可以看到第一个混合成分和第三个混合成分朝着数据域的方向上移动。
协方差更新
σ12:1→0.14σ22:0.2→0.44σ32:3→1.53\begin{aligned} &\sigma^2_1:1\rightarrow 0.14\\ & \sigma^2_2:0.2\rightarrow0.44\\ & \sigma_3^2:3\rightarrow1.53 \end{aligned}σ12:1→0.14σ22:0.2→0.44σ32:3→1.53
这些变化表现在图像上为:
权重参数更新
π1:13→0.29π2:13→0.29π3:13→0.42\pi_1:\frac13\rightarrow0.29\\ \pi_2:\frac13\rightarrow0.29\\ \pi_3:\frac 13\rightarrow0.42 π1:31→0.29π2:31→0.29π3:31→0.42
注意到图像中的各个峰值发生了变化。经过这一系列的更新,得到的模型能够更好地拟合给定的数据。
期望最大化算法(EM Algorithm)
由于之前提到的参数更新的过程依赖于责任rnkr_{nk}rnk,而责任又与这些参数呈复杂的依赖关系,使得上述的更新过程没有一个闭型的解。接下来我们介绍一种解决参数的问题的迭代方案——期望最大化算法(The expectation maximization algorithm)。这其实是一种参数学习的泛化迭代方案。在高斯混合模中,我们选择参数的初始化值μk,Σk,πk\mu_k,\Sigma_k,\pi_kμk,Σk,πk,不断改变这些参数,直到他们收敛于期望步(E-step)和极大步(M-step)之间的不断迭代。
期望步:评估责任rnkr_{nk}rnk(属于k混合成分的的数据点n的后验概率)
极大步:用更新后的责任重新估计参数
由于EM算法每进行一次迭代都会导致似然函数值上升,所以可以利用这个特性直接检查自然对数似然或者参数。一个实例化的步骤如下:
迭代过程中的变化情况:
现在我们对开篇的时候的数据进行处理:
我们观察迭代的最终结果:
由上图可以直到,左边的一簇数据可以由一个单一的成分进行表示,但是右边的一簇数据是由两个成分混合儿而成的,所以这两个混合成分对这一簇的数据的责任在0.5左右。
潜变量角度(Latent-Variable Perspective)
我们使用一个离散型的潜变量模型来理解GMM。这样就可以将原先提到的责任的概念解释为后验概率分布了。其实,这个潜变量就是用来描述一个数据点在各个混合成分中的占有情况(表现为概率)。
生成过程和概率模型(Generative Process and Probabilistic Model)
想要得到对应的概率模型,我们需要弄清楚数据的生成过程。
假设一个混合模型由K个成分组成,而且每一个数据只能够由唯一的一个混合成分生成,这里我们引入一个定义域由0,1组成的随机变量zk∈{0,1}z_k\in\{0,1\}zk∈{0,1},这个随机变量表示第k个混合成份是否生成了该模型。所以:
p(x∣zk=1)=N(x∣μk,Σk)p(x|z_k=1)=\mathcal N(x|\mu_k,\Sigma_k)p(x∣zk=1)=N(x∣μk,Σk)
其中,z:=[z1,⋯,zK]⊤z:=[z_1,\cdots,z_K]^\topz:=[z1,⋯,zK]⊤,其中包含K−1K-1K−1个0和111个1.例如,z=[z1,z2z,3]⊤=[0,1,0]⊤z=[z_1,z_2z,_3]^\top=[0,1,0]^\topz=[z1,z2z,3]⊤=[0,1,0]⊤表示该数据是由第二个混合元素生成的。
在实际过程中,zkz_kzk可能是未知的,也就是可能是由不同的高斯模型混合按照不同的比例混合而成的。所以假设一个关于潜变量的先验分布:
p(z)=π=[π1,⋯,πK]⊤,∑k=1Kπk=1p(z)=\pi=[\pi_1,\cdots,\pi_K]^\top,\sum^K_{k=1}\pi_k=1p(z)=π=[π1,⋯,πK]⊤,k=1∑Kπk=1
其中,πk=p(zk=1)\pi_k=p(z_k=1)πk=p(zk=1)表示该数据点由第k个成分生成的概率(类比为混合比例)。
潜变量的建模过程实际上对应着数据的生成过程,下面是单个数据的生成过程:
生成关系为:
z(i)∼p(z)x(i)∼p(x∣z(i)=1)z_{(i)}\sim p(z)\\x^{(i)}\sim p(x|z^{(i)}=1)z(i)∼p(z)x(i)∼p(x∣z(i)=1)
这种数据的采样依赖于图模型中的父节点的采样,这种采样称为原始采样(Ancestral Sampling)
通常一个概率模型是由数据和潜变量的联合分布定义的,结合前面的知识,我们可以得到所有K个成分的联合分布:
p(x,zk=1)=p(x∣zk=1)p(zk=1)=πkN(x∣μk,Σk)p(x,z_k=1)=p(x|z_k=1)p(z_k=1)=\pi_k\mathcal N(x|\mu_k,\Sigma_k)p(x,zk=1)=p(x∣zk=1)p(zk=1)=πkN(x∣μk,Σk)
对于所有的k=1,⋯,Kk=1,\cdots ,Kk=1,⋯,K:
p(x,z)=[p(x,z1=1)⋮p(x,zK=1)]=[π1N(x∣μ1,Σ1)⋮πKN(x∣μK,ΣK)]p(\boldsymbol{x}, \boldsymbol{z})=\left[\begin{array}{c} p\left(\boldsymbol{x}, z_{1}=1\right) \\ \vdots \\ p\left(\boldsymbol{x}, z_{K}=1\right) \end{array}\right]=\left[\begin{array}{c} \pi_{1} \mathcal{N}\left(\boldsymbol{x} \mid \boldsymbol{\mu}_{1}, \boldsymbol{\Sigma}_{1}\right) \\ \vdots \\ \pi_{K} \mathcal{N}\left(\boldsymbol{x} \mid \boldsymbol{\mu}_{K}, \boldsymbol{\Sigma}_{K}\right) \end{array}\right] p(x,z)=⎣⎢⎡p(x,z1=1)⋮p(x,zK=1)⎦⎥⎤=⎣⎢⎡π1N(x∣μ1,Σ1)⋮πKN(x∣μK,ΣK)⎦⎥⎤
似然(Likelihood)
想要得到似然函数p(x∣θ)p(x|\theta)p(x∣θ),我们需要将潜变量消去,由于我们原先定义的潜变量是离散型的,所以只需要连加就可以将潜变量消掉:
p(z∣θ)=∑zp(x∣θ,z)p(z∣θ),θ:={μk,Σk,πk:k=1,…,K}p(z|\theta)=\sum_zp(x|\theta,z)p(z|\theta), \quad \theta:=\{\mu_k,\Sigma_k,\pi_k:k=1,\dots,K\}p(z∣θ)=z∑p(x∣θ,z)p(z∣θ),θ:={μk,Σk,πk:k=1,…,K}
采样的图模型为:(N个样本点)
结合之前的知识,我们可以得到:
p(x∣θ)=∑k=1KπkN(x∣μk,Σk)p(x|\theta)=\sum^K_{k=1}\pi_k\mathcal N(x|\mu_k,\Sigma_k)p(x∣θ)=k=1∑KπkN(x∣μk,Σk)
所以对于给定的数据集X\mathcal XX的似然函数为:
p(X∣θ)=∏n=1Np(xn∣θ)=∏n=1N∑k=1KπkN(xn∣μk,Σk)p(\mathcal X|\theta)=\prod^N_{n=1}p(x_n|\theta)=\prod^N_{n=1}\sum^K_{k=1}\pi_k\mathcal N(x_n|\mu_k,\Sigma_k)p(X∣θ)=n=1∏Np(xn∣θ)=n=1∏Nk=1∑KπkN(xn∣μk,Σk)
这个与原先的概率模型一致
后验分布(Posterior Distribution)
根据贝叶斯公式,我们得到潜变量的后验分布:
p(zk=1∣x)=p(zk)p(x∣zk=1)p(x)p(z_k=1|x)=\frac{p(z_k)p(x|z_k=1)}{p(x)}p(zk=1∣x)=p(x)p(zk)p(x∣zk=1)
将之前的结论带入:
p(zk∣x)=p(zk)p(x∣zk)∑j=1Kp(zj)p(x∣zj)=πkN(x∣μk,Σk)∑j=1KπjN(x∣μj,Σj)p(z_k|x)=\frac{p(z_k)p(x|z_k)}{\sum^K_{j=1}p(z_j)p(x|z_j)}=\frac{\pi_k\mathcal N(x|\mu_k,\Sigma_k)}{\sum^K_{j=1}\pi_j\mathcal N(x|\mu_j,\Sigma_j)}p(zk∣x)=∑j=1Kp(zj)p(x∣zj)p(zk)p(x∣zk)=∑j=1KπjN(x∣μj,Σj)πkN(x∣μk,Σk)
可以发现,这就是我们之前提到的责任
拓展到整个数据集(Extension to a Full Dataset)
我们原先讨论的是单个数据,现在考虑一个数据集X:={x1,⋯,xN}\mathcal X:=\{x_1,\cdots,x_N\}X:={x1,⋯,xN}每一个数据点都有自己的潜变量:
zn=[zn1,⋯,znK]⊤∈RKz_n=[z_{n1},\cdots,z_{nK}]^\top\in\mathbb R^Kzn=[zn1,⋯,znK]⊤∈RK
由于所有的数据都是独立同分布的,所以可以将条件分布分解为连积的形式:
p(x1,⋯,xN∣z1,⋯,zN)=∏n=1Np(xn∣zn)p(x_1,\cdots,x_N|z_1,\cdots,z_N)=\prod^N_{n=1}p(x_n|z_n)p(x1,⋯,xN∣z1,⋯,zN)=n=1∏Np(xn∣zn)
后验分布:
p(znk=1∣xn)=p(xn∣znk=1)p(znk=1)∑j=1Kp(xn∣znj=1)p(znj=1)=πkN(xn∣μk,Σk)∑j=1KπjN(xn∣μj,Σj)=rnk\begin{aligned} p\left(z_{n k}=1 \mid \boldsymbol{x}_{n}\right) &=\frac{p\left(\boldsymbol{x}_{n} \mid z_{n k}=1\right) p\left(z_{n k}=1\right)}{\sum_{j=1}^{K} p\left(\boldsymbol{x}_{n} \mid z_{n j}=1\right) p\left(z_{n j}=1\right)} \\ &=\frac{\pi_{k} \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right)}{\sum_{j=1}^{K} \pi_{j} \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{j}, \boldsymbol{\Sigma}_{j}\right)}=r_{n k} \end{aligned} p(znk=1∣xn)=∑j=1Kp(xn∣znj=1)p(znj=1)p(xn∣znk=1)p(znk=1)=∑j=1KπjN(xn∣μj,Σj)πkN(xn∣μk,Σk)=rnk
这还是第k个混合元素的责任。
期望最大化算法重新回顾(EM Algorithm Revisited)
EM算法是一种用于求解极大似然估计的迭代算法,可以从潜变量的角度推导得来。对于一个给定的模型参数θ(t)\theta^{(t)}θ(t),在期望步时,计算自然对数似然的期望:
Q(θ∣θ(t))=Ez∣x,θ(t)[logp(x,z∣θ)]=∫logp(x,z∣θ)p(z∣x,θ(t))dzQ(\theta|\theta^{(t)})=\mathbb E_{z|x,\theta^{(t)}}[\log p(x,z|\theta)]=\int \log p(x,z|\theta)p(z|x,\theta^{(t)})dzQ(θ∣θ(t))=Ez∣x,θ(t)[logp(x,z∣θ)]=∫logp(x,z∣θ)p(z∣x,θ(t))dz
之后的极大步算则一个最大化上式的参数用于更新。但是EM算法并不一定会收敛于极大似然估计的解,有时候会收敛于局部最优解。可以采用不同的初始化值,这样可以减少得到局部最优解的风险。
拓展阅读
核密度估计(Kernel Density Estimation):
核密度估计是一种非参数密度估计,其实我们熟悉的直方图就是一种非参数估计,其中直方图的间距不合适可能会导致过拟合或者欠拟合。对于一个数据集,核密度估计的分布为:
p(x)=1Nh∑n=1Nk(x−xnh)p(x)=\frac{1}{Nh}\sum^N_{n=1}k(\frac{x-x_n}{h})p(x)=Nh1n=1∑Nk(hx−xn)
其中,k为核函数(Kernel Function),就是一个非负且积分值为1的函数。h>0h>0h>0是一个光滑参数(smoothing/bandwidth parameter)这个与直方图的面元(直方图的柱子的宽度,bin size)大小类似。核函数通常的选择就是高斯函数或者时均匀分布函数。同时,核密度估计与直方图密切相关,但是核密度估计是光滑的,直方图不是。
机器学习中的数学ch11:基于高斯混合模型的密度估计(Density Estimation with Gaussian Mixture Models)相关推荐
- 机器学习中的数学(全集)
在当下,机器学习.人工智能领域吸引了许多同学投身其中,其中包含了大量非科班出身或者从其他行业切换赛道转行而来的朋友们,大家在学习的过程中发现学习曲线陡峭.难度较大,普遍的心声就是:机器学习难,首要就是 ...
- Python机器学习中的数学原理详解(补充勘误表)
数学是机器学习和数据科学的基础,任何期望涉足相关领域并切实领悟具体技术与方法的人都无法绕过数学这一关.在一篇题为<放弃幻想,搞AI必须过数学关>的网文中,作者一针见血地指出想从事AI相关工 ...
- 机器学习中的数学修炼(含勘误表!)
机器学习中的数学修炼--为你打开一道通往机器学习世界的数学之门 数学是机器学习和数据科学的基础,任何期望涉足相关领域并切实领悟具体技术与方法的人都无法绕过数学这一关.本书系统地整理并介绍了机器学习中所 ...
- 机器学习中的数学:一份新鲜出炉的热门草稿
来源:机器之心 本文约1500字,建议阅读5分钟. 本文为你分享近日<Mathematics for Machine Learning>的全部草稿已放出,我们整理了这本书的简要概述. 近日 ...
- 机器学习中的数学(四)--线性代数
写在前面 <机器学习中的数学>系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等.本系列重在描述基本概念,并不在应用的方面的做深入的探讨, ...
- 机器学习中的数学——距离定义(二十):相对熵(Relative Entropy)/KL散度(Kullback-Leibler Divergence)
分类目录:<机器学习中的数学>总目录 相关文章: · 距离定义:基础知识 · 距离定义(一):欧几里得距离(Euclidean Distance) · 距离定义(二):曼哈顿距离(Manh ...
- 机器学习中的数学(1):MIT大牛写的综述
" 想要深入了解机器学习和深度学习背后的数学支撑?想要避免成为调包侠?想要做更前沿更基础的研究?不仅是 Import xxx as xx,这里是***"机器学习中的数学" ...
- 机器学习中的数学——粒子群算法(Particle Swarm Optimization, PSO)(三):改进的粒子群算法
分类目录:<机器学习中的数学>总目录 相关文章: · 梯度下降法(Gradient Descent) · 随机梯度下降(Stochastic Gradient Descent, SGD) ...
- 机器学习中的数学原理——似然函数
这个专栏主要是用来分享一下我在 机器学习中的 学习笔记及一些 感悟,也希望对你的学习有帮助哦!感兴趣的小伙伴欢迎 私信或者 评论区留言!这一篇就更新一下< 白话机器学习中的数学--似然函数> ...
最新文章
- Nature综述:菌根共生的独特性和共性
- pku1050----To the Max(求矩阵的最大子段和)
- android 打包报错,android 打包报错,请问有没有好的解决办法
- 【热点】黑客入侵的常用手段及防护措施分析
- 陕西国防 c语言第三章实训三答案,C语言程序设计(上)
- Upload Picture to application server
- NPM酷库:dateformat 时间字符串格式化
- Linux (Ubuntu/deepin等)终端命令安装Lamp
- 人的“肥胖”基因FTO可促进水稻和土豆增产50% - 中国粮食、中国饭碗
- 将字符串转为16进制数_C语言中的进制互转与数值和字符串互转的混搭玩法
- 支付宝集五福1月19日开启 超1000个商家机构齐发福卡
- 解决FlexPaper分页分段加载问题(转)
- JAVA-初步认识-第六章-类类型参数
- C# 反射/映射学习
- java多态/重载方法——一个疑难代码引发的讨论
- 【TWVRP】基于matlab禁忌搜索和节约算法求解带时间窗的车辆路径规划问题【含Matlab源码 1229期】
- 【翻译服务(1)】有道智云使用入门及文本、图片和语音翻译服务
- 运行时设置数据库连接字符串
- 透明图片怎么发给别人_新手微商没生意咋办?微商怎么做如何推广?不放弃微信就是等死!...
- Android——新大陆云平台配置(2)
热门文章
- Google C++编程规范
- UG NX软件的一些简单设置
- WIN10下CAD在操作时按F8卡顿
- 全网疯传的Java后端岗成长笔记,先到先得!
- 那个「最牛删库跑路事件」的程序员,被判了....
- 自己挑出的几个windows xp、7、8.0、10的纯净版官方镜像下载地址
- CSS 过渡(CSS3)
- js执行过程(VO\GO\AO等)+闭包原理
- 更新土地利用.shp 数据,垃圾场选址... 第八届GIS技能大赛解题
- 调节阀故障一般都是什么原因呢?