• 高斯分布公式及图像示例
  • 高斯分布概率密度热力图
  • 高斯混合模型实现代码
  • 高斯混合模型聚簇效果图
  • 参考文献

作者:金良(golden1314521@gmail.com) csdn博客: http://blog.csdn.net/u012176591

需要整理后的代码文件和数据请移步 http://download.csdn.net/detail/u012176591/8748673

1.高斯分布公式及图像示例

定义在D-维连续空间的高斯分布概率密度的表达式
N(x|μ,Σ)=1(2π)D/21|Σ|1/2exp{−12(x−μ)TΣ−1(x−μ)} N({\bf x}|\mu,\Sigma ) = \frac{1}{(2\pi)^{D/2}}\frac{1}{|\Sigma|^{1/2}}\exp\{-\frac{1}{2}({\bf x} - {\bf \mu})^T\Sigma^{-1}({\bf x} - {\bf \mu})\}

其等高线所形成的形状与协方差矩阵Σ\Sigma 密切相关,如下所示,后面的代码中有各个图像的对应的高斯分布的参数。

2. 高斯分布概率密度热力图

代码如下:

fig,axes = plt.subplots(nrows=3,ncols=1,figsize=(4,12))# 标准圆形
mean = [0,0]
cov = [[1,0],[0,1]]
x,y = np.random.multivariate_normal(mean,cov,5000).T
axes[0].plot(x,y,'x')
axes[0].set_xlim(-6,6)
axes[0].set_ylim(-6,6) # 椭圆,椭圆的轴向与坐标平行
mean = [0,0]
cov = [[0.5,0],[0,3]]
x,y = np.random.multivariate_normal(mean,cov,5000).T
axes[1].plot(x,y,'x')
axes[1].set_xlim(-6,6)
axes[1].set_ylim(-6,6) # 椭圆,但是椭圆的轴与坐标轴不一定平行
mean = [0,0]
cov = [[1,2.3],[2.3,1.4]]
x,y = np.random.multivariate_normal(mean,cov,5000).T
axes[2].plot(x,y,'x'); plt.axis('equal')
axes[2].set_xlim(-6,6)
axes[2].set_ylim(-6,6) 

我们在下面的高斯混合模型中采用用第三种协方差矩阵,即概率密度的等高线是椭圆,且轴向不一定与坐标轴平行。

下图是高斯密度函数的热图:

以下是作图代码

# 自定义的高维高斯分布概率密度函数
def gaussian(x,mean,cov):    dim = np.shape(cov)[0] #维度covdet = np.linalg.det(cov+np.eye(dim)*0.01) #协方差矩阵的秩covinv = np.linalg.inv(cov+np.eye(dim)*0.01) #协方差矩阵的逆xdiff = x - mean#概率密度prob = 1.0/np.power(2*np.pi,1.0*2/2)/np.sqrt(np.abs(covdet))*np.exp(-1.0/2*np.dot(np.dot(xdiff,covinv),xdiff))return prob#作二维高斯概率密度函数的热力图
mean = [0,0]
cov = [[1,2.3],[2.3,1.4]]
x,y = np.random.multivariate_normal(mean,cov,5000).T
cov = np.cov(x,y) #由真实数据计算得到的协方差矩阵,而不是自己任意设定
n=200
x = np.linspace(-6,6,n)
y = np.linspace(-6,6,n)
xx,yy = np.meshgrid(x, y)
zz = np.zeros((n,n))
for i in range(n):for j in range(n):zz[i][j] = gaussian(np.array([xx[i][j],yy[i][j]]),mean,cov)gci = plt.imshow(zz,origin='lower') # 选项origin='lower' 防止tuixan图像颠倒
plt.xticks([5,100,195],[-5,0,5])
plt.yticks([5,100,195],[-5,0,5])
plt.title(u'高斯函数的热力图',{'fontname':'STFangsong','fontsize':18})

3.高斯混合模型实现代码:

下面是几个功能函数,在主函数中被调用

# 计算概率密度,
# 参数皆为array类型,过程中参数不变
def gaussian(x,mean,cov):dim = np.shape(cov)[0] #维度#之所以加入单位矩阵是为了防止行列式为0的情况covdet = np.linalg.det(cov+np.eye(dim)*0.01) #协方差矩阵的行列式covinv = np.linalg.inv(cov+np.eye(dim)*0.01) #协方差矩阵的逆xdiff = x - mean#概率密度prob = 1.0/np.power(2*np.pi,1.0*dim/2)/np.sqrt(np.abs(covdet))*np.exp(-1.0/2*np.dot(np.dot(xdiff,covinv),xdiff))return prob#获取初始协方差矩阵
def getconvs(data,K):convs = [0]*Kfor i in range(K):# 初始的协方差矩阵源自于原始数据的协方差矩阵,且每个簇的初始协方差矩阵相同convs[i] = np.cov(data.T)  return convsdef isdistinct(means,criter=0.03): #检测初始中心点是否靠得过近K = len(means)for i in range(K):for j in range(i+1,K):if criter > np.linalg.norm(means[i]-means[j]):return 0       return True
#获取初始聚簇中心
def getmeans(data,K,criter):means = [0]*Kdim  = np.shape(data)[1]minmax = [] #各个维度的极大极小值for i in range(dim):minmax.append(np.array([min(data[:,i]),max(data[:,i])]))while True:#生成初始点的坐标for i in range(K):means[i] = []for j in range(dim):means[i].append(np.random.random()*(minmax[j][1]-minmax[j][0])+minmax[j][0])  means[i] = np.array(means[i])if isdistinct(means,criter):break  return means# k-means算法的实现函数。
#用K-means算法输出的聚类中心,作为高斯混合模型的输入
def kmeans(data,K):N = np.shape(data)[0]#样本数目dim = np.shape(data)[1] #维度means = getmeans(data,K,criter=15)means_old = [np.zeros(dim) for k in range(K)]while np.sum([np.linalg.norm(means_old[k]-means[k]) for k in range(K)]) > 0.01:means_old = cp.deepcopy(means)numlog = [0]*Ksumlog = [np.zeros(dim) for k in range(K)]for n in range(N):distlog = [np.linalg.norm(data[n]-means[k]) for k in range(K)]toK = distlog.index(np.min(distlog))numlog[toK] += 1sumlog[toK] += data[n]for k in range(K):means[k] = 1.0/numlog[k]*sumlog[k]return means#对程序结果进行可视化,注意这里的K只能取2,否则该函数运行出错
def visualresult(data,gammas,K):N = np.shape(data)[0]#样本数目dim = np.shape(data)[1] #维度minmax = [] #各个维度的极大极小值xy = []n=200for i in range(dim):delta = 0.05*(np.max(data[:,i])-np.min(data[:,i]))xy.append(np.linspace(np.min(data[:,i])-delta,np.max(data[:,i])+delta,n))xx,yy = np.meshgrid(xy[0], xy[1])zz = np.zeros((n,n))for i in range(n):for j in range(n):zz[i][j] = np.sum(gaussian(np.array([xx[i][j],yy[i][j]]),means[k],convs[k]) for k in range(K))gci = plt.imshow(zz,origin='lower',alpha = 0.8) # 选项origin='lower' 防止tuixan图像颠倒plt.xticks([0,len(xy[0])-1],[xy[0][0],xy[0][-1]])plt.yticks([0,len(xy[1])-1],[xy[1][0],xy[1][-1]])for i in range(N):if gammas[i][0] >0.5:plt.plot((data[i][0]-np.min(data[:,0]))/(xy[0][1]-xy[0][0]),(data[i][1]-np.min(data[:,1]))/(xy[1][1]-xy[1][0]),'r.')else:plt.plot((data[i][0]-np.min(data[:,0]))/(xy[0][1]-xy[0][0]),(data[i][1]-np.min(data[:,1]))/(xy[1][1]-xy[1][0]),'k.')deltax = xy[0][1]-xy[0][0]deltay = xy[1][1]-xy[1][0]plt.plot((means[0][0]-xy[0][0])/deltax,(means[0][1]-xy[1][0])/deltay,'*r',markersize=15)plt.plot((means[1][0]-xy[0][0])/deltax,(means[1][1]-xy[1][0])/deltay,'*k',markersize=15)plt.title(u'高斯混合模型图',{'fontname':'STFangsong','fontsize':18})

高斯混合模型的主函数

N = np.shape(data)[0]#样本数目
dim = np.shape(data)[1] #维度
K = 2 # 聚簇的个数means = kmeans(data,K)convs = getconvs(data,K)pis = [1.0/K]*K
gammas = [np.zeros(K) for i in range(N)] #*N 注意不能用 *N,否则N个array只指向一个地址loglikelyhood = 0
oldloglikelyhood = 1while np.abs(loglikelyhood - oldloglikelyhood)> 0.0001:oldloglikelyhood = loglikelyhood# E_stepfor n in range(N):respons = [pis[k]*gaussian(data[n],means[k],convs[k]) for k in range(K)]sumrespons = np.sum(respons)for k in range(K):gammas[n][k] = respons[k]/sumrespons# M_stepfor k in range(K):nk = np.sum([gammas[n][k] for n in range(N)])means[k] = 1.0/nk * np.sum([gammas[n][k]*data[n] for n in range(N)],axis=0)xdiffs = data - means[k]convs[k] = 1.0/nk * np.sum([gammas[n][k]*xdiffs[n].reshape(dim,1)*xdiffs[n] for n in range(N)],axis=0)pis[k] = 1.0*nk/N# 计算似然函数值loglikelyhood =np.sum( [np.log(np.sum([pis[k]*gaussian(data[n],means[k],convs[k]) for k in range(K)])) for n in range(N) ])#print means#print loglikelyhood#print '=='*10visualresult(data,gammas,K)

4.高斯混合模型聚簇效果图

5.参考文献:

  • K-means聚类和EM思想
    http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006910.html
  • (EM算法)The EM Algorithm
    http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html
  • 从决策树学习谈到贝叶斯分类算法、EM、HMM
    http://blog.csdn.net/v_july_v/article/details/7577684
  • EM算法学习(Expectation Maximization Algorithm)
    http://www.vjianke.com/XUHV3.clip
  • EM算法——理论与应用
    http://blog.sina.com.cn/s/blog_a8fead9b01014p6k.html
  • EM算法 一个简单的例子
    http://blog.sina.com.cn/s/blog_a7da5cda010158b3.html
  • 高斯混合模型(GMM)
    http://www.cnblogs.com/mindpuzzle/archive/2013/04/24/3036447.html
  • 高斯混合模型
    http://www.cnblogs.com/zhangchaoyang/articles/2624882.html
  • CS229 Lecture notes,Andrew Ng讲义
    http://cs229.stanford.edu/notes/cs229-notes7b.pdf
  • https://github.com/lzhang10/maxent/blob/master/doc/manual.pdf
  • http://nlp.stanford.edu/software/classifier.shtml
  • https://github.com/juandavm/em4gmm
    用最大期望算法求解高斯混合模型,dat文件夹里的压缩文件是数据
  • http://insideourminds.net/python-unsupervised-learning-using-em-algorithm-implementation/
    Python实现的期望最大化算法,数据是鸢尾花数据

高斯混合模型(GMM)实现和可视化相关推荐

  1. 高斯混合模型 GMM 的详细解释

    高斯混合模型(后面本文中将使用他的缩写 GMM)听起来很复杂,其实他的工作原理和 KMeans 非常相似,你甚至可以认为它是 KMeans 的概率版本. 这种概率特征使 GMM 可以应用于 KMean ...

  2. 高斯混合模型GMM、核心参数、高斯混合模型GMM的数学形式

    高斯混合模型GMM.核心参数.高斯混合模型GMM的数学形式 高斯混合模型GMM 混合模型是一个可以用来表示在总体分布(distribution)中含有 K 个子分布的概率模型,换句话说,混合模型表示了 ...

  3. 高斯混合模型--GMM(Gaussian Mixture Model)

    参考:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html 概率指事件随机发生的机率,对于均匀分布函数,概率密度等于一段区间(事件的取值范围)的概率 ...

  4. 高斯混合模型--GMM

    原文:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html   高斯混合模型--GMM(Gaussian Mixture Model)     统计 ...

  5. 单高斯分布模型GSM,高斯混合模型GMM

    本文就高斯混合模型(GMM,Gaussian Mixture Model)参数如何确立这个问题,详细讲解期望最大化(EM,Expectation Maximization)算法的实施过程. 单高斯分布 ...

  6. EM算法应用:k均值聚类(k-means)和高斯混合模型(GMM)

    文章目录 k-means聚类 EM角度的理解 算法流程 特点 k值选择 局限性 高斯混合模型 GMM的问题描述 1,明确隐变量 2.EM算法的E步:确定Q函数 3. EM算法的E步 4. 停止条件 上 ...

  7. 高斯混合模型GMM的理解

    高斯混合模型(Gaussian Mixture Model,简称GMM)是用高斯概率密度函数(正态分布曲线)精确地量化事物,将一个事物分解为若干的基于高斯概率密度函数(正态分布曲线)形成的模型.通俗点 ...

  8. 混合高斯模型_大数据小白入门高斯混合模型(GMM)聚类算法

    导读 高斯混合模型(Gaussian Mixture Model)通常简称GMM,是一种业界广泛使用的聚类算法,属于生成式模型,它假设所有的数据样本都是由某一个给定参数的 多元高斯分布 所生成的.从中 ...

  9. 使用高斯混合模型(GMM)近似未知分布:EM算法的应用

    该篇博客是对邱锡鹏老师<神经网络与深度学习>的学习笔记.在阅读本博文之前,建议读者先阅读上一篇博客EM算法. 高斯混合模型(Gaussian Mixture Model) 如果一个连续随机 ...

  10. EM算法及高斯混合模型GMM详述

    1.最大似然估计 最大似然估计(Maximum Likelihood Estimation,MLE)就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值的计算过程.直白来讲,就是给定了 ...

最新文章

  1. Swift 字符串去除换行符空格符
  2. 独家 | 成功开发者必备的5项软技能
  3. 在x86上成功使用gentoo系统上安装的grub2启动 Mac OS X Leopard 10.5.7
  4. 多维数组的索引与切片_「GCTT 出品」Go 系列教程——11. 数组和切片
  5. php教程源码分享,php教程|php源码|php学习
  6. Visual Studio 2005 Beta 2 will ship on April 25th
  7. 也玩有道难题的双立方数问题:Python 版解法
  8. 斗鱼实名认证 mysql_斗鱼扩展--DouyuRoom使用说明(十四)
  9. strstr,strrchr,strpos,strrpos的区别http://blog.qit...
  10. 23种设计模式之备忘录模式
  11. 如何保障研发质量不踩坑?阿里技术专家教你几招
  12. SpringBoot 中@Autowired 注入失效原因及解决方法
  13. 控制流程之while循环
  14. 89C51流水灯代码示例,带proteus项目
  15. 【CV】用于计算机视觉的 Transformer 高被引综述
  16. 用C语言数组编写贪吃蛇
  17. 清风数学建模学习笔记——逻辑回归的二分类模型
  18. 《web安全原理分析与实践》
  19. 正则表达式,和python re模块
  20. 网站搭建需要什么技术?

热门文章

  1. ant design vue中a-table中使用a-tag和a-switch
  2. 保护眼睛的屏幕设置 Win2008R2中的Win7桌面效果设置
  3. 截图热键冲突:关闭360截图功能建议使用QQ截图
  4. Sass的概念以及命令
  5. vga转html电脑打不开,VGA切换器使用方法和常见问题说明
  6. Win10安装Docker和k8s
  7. 使用ChannelSftp的put方法被挂起,卡住的问题
  8. 2,服务通讯C++与python
  9. NX二次开发 UFUN创建倒角特征 UF_MODL_create_chamfer
  10. c语言pl是什么意思,相机中PL,ND各代表什么?