参考:https://scikit-learn.org/stable/modules/generated/sklearn.mixture.GaussianMixture.html#sklearn.mixture.GaussianMixture

API:class sklearn.mixture.GaussianMixture(n_components=1covariance_type=’full’tol=0.001reg_covar=1e-06max_iter=100n_init=1init_params=’kmeans’weights_init=Nonemeans_init=Noneprecisions_init=Nonerandom_state=Nonewarm_start=Falseverbose=0verbose_interval=10)

参数:

n_components :混合元素(聚类)的数量,默认为1

covariance_type:描述要使用的协方差参数类型的字符串,必选一个(‘full’ , ‘tied’, ‘diag’, ‘spherical’),默认为full。

full:每个混合元素有它公用的协方差矩阵;tied:每个混合元素共享同一个公共的协方差矩阵;

diag:每个混合元素有它自己的对角矩阵;spherical:每个混合元素都有自己单独的方差值

tol:float类型, 默认值: 0.001.收敛阈值,当平均增益低于这个值时迭代停止。

reg_covar:float类型, 协方差对角线上的非负正则化参数,默认值: 1e-6  接近于0.

max_iter:最大迭代次数,默认为100

n_init:执行初始化操作数量,保持最好的结果,默认为1

init_params :可选 {‘kmeans’, ‘random’}, 默认值为 ‘kmeans’.初始化权重、均值及精度的方法,作用:用随机方法还是用kmeans方法初始化

weights_init:初始化权重列表,如果没有给定,那么使用init_params参数给定的方法来进行创建,默认为None
means_init:初始化均值列表,如果没有给定,那么使用init_params参数给定的方法来进行创建,默认为None
precisions_init: 初始化精度列表,如果没有给定,那么使用init_params参数给定的方法来进行创建,默认为None,它的形状依靠协方差类型,

 
协方差类型 初始化精度形状
'spherical' (n_components,)
'tied' (n_features, n_features)
'diag' (n_components, n_features)
'full' (n_components, n_features, n_features)

random_state : 类型int, 随机数种子,默认为None.

warn_stat:布尔类型,默认为False,当该值为true的时候,最后一次的学习结果作为下一次调用的初始化参数,在类似问题被多次训练的时候,可以加快收敛速度。在这种情况下‘n_init’可以忽略,并且在第一次调用时只发生一个初始化。

verbose : int类型, 默认为0.作用:可以冗余输出,如果为1,它会打印正确的初始化结果和每一次迭代步骤。如果大于1,则打印日志概率和每一步所需的时间。

verbose_interval : int类型, 默认为 10.作用:下一次打印之前的迭代发生次数

属性:

weights_ : array-like, shape (n_components,),每个混合元素权重

means_ : array-like, shape (n_components, n_features),每个混合元素均值

covariances_ : array-like,每个混合元素的协方差,它的形状依靠协方差类型,

协方差类型 协方差形状
'spherical' (n_components,)
'tied' (n_features, n_features)
'diag' (n_components, n_features)
'full' (n_components, n_features, n_features)

precisions_ : array-like,每个混合元素精度矩阵,精度矩阵是协方差矩阵的逆。协方差矩阵是对称正定的,因此高斯混合可以用精度矩阵等价地参数化。存储精度矩阵而不是协方差矩阵使得在测试时间计算新样本的对数似然更有效。它的形状依靠协方差类型,

协方差类型 精度形状
'spherical' (n_components,)
'tied' (n_features, n_features)
'diag' (n_components, n_features)
'full' (n_components, n_features, n_features)

precisions_cholesky_ : array-like (同上)

converged_ : bool类型,在fit()中达到收敛时为true,否则为false。

lower_bound_ : float类型,EM最佳拟合的对数似然(与模型相关的训练数据)的下限值。

方法:

aic(self, X)

Akaike information criterion for the current model on the input X.

在当前模型上输入X的Akaike信息准则

bic(self, X)

Bayesian information criterion for the current model on the input X.

在当前模型上输入X的贝叶斯信息准则。

fit(self, X[, y])

Estimate model parameters with the EM algorithm.

用EM算法估计模型参数。

fit_predict(self, X[, y])

Estimate model parameters using X and predict the labels for X.

用X估计模型参数,并预测X的标签。

get_params(self[, deep])

Get parameters for this estimator.

获取这个算法的参数

predict(self, X)

Predict the labels for the data samples in X using trained model.

使用训练模型预测X中数据样本的标签。

predict_proba(self, X)

Predict posterior probability of each component given the data.

在给定数据的情况下,预测每个分量的后验概率。

sample(self[, n_samples])

Generate random samples from the fitted Gaussian distribution.

从拟合的高斯分布生成随机样本。

score(self, X[, y])

Compute the per-sample average log-likelihood of the given data X.

计算给定数据X的每个样本平均log似然函数

score_samples(self, X)

Compute the weighted log probabilities for each sample.

计算每个样本的加权log概率。

set_params(self, \*\*params)

Set the parameters of this estimator.

为算法设置参数

__init__(selfn_components=1covariance_type=’full’tol=0.001reg_covar=1e-06max_iter=100n_init=1init_params=’kmeans’weights_init=Nonemeans_init=Noneprecisions_init=Nonerandom_state=Nonewarm_start=Falseverbose=0verbose_interval=10)

高斯分布-sklearn.mixture.GaussianMixture()相关推荐

  1. 【聚类算法】sklearn聚类方法详解

    转自:https://blog.csdn.net/ustbbsy/article/details/80960652 感谢博主 1 KMeans 1.1 算法描述 随机选择k个中心 遍历所有样本,把样本 ...

  2. 无监督学习 | GMM 高斯混合聚类原理及Sklearn实现

    文章目录 1. 高斯混合聚类 1.1 高斯混合分布 1.2 参数求解 1.3 EM 算法 2. Sklearn 实现 参考文献 相关文章: 机器学习 | 目录 机器学习 | 聚类评估指标 机器学习 | ...

  3. sklearn聚类方法详解

    1 KMeans 1.1 算法描述 随机选择k个中心 遍历所有样本,把样本划分到距离最近的一个中心 划分之后就有K个簇,计算每个簇的平均值作为新的质心 重复步骤2,直到达到停止条件 停止条件: 聚类中 ...

  4. sklearn之高斯混合模型

    什么是高斯分布? 高斯分布也叫正态分布,也就是常态分布,什么意思呢?比如说男性的身高,假如说有10000个男性的身高,如果再坐标系上标记出来就是一个正态分布,如果形状还不是和上面的图形一样,那说明数据 ...

  5. 高斯混合模型(GaussianMixture Model, GMM)聚类、可视化最优协方差形式、通过TSNE进行结果可视化分析、抽取核心特征因子

    高斯混合模型模型: sklearn.mixture.GaussianMixture 混合高斯模型(Gaussian Mixture Model,简称GMM)是用高斯概率密度函数(正态分布曲线)精确地量 ...

  6. EM(期望极大化)算法及其推广

    文章目录 1. EM算法 2. EM算法收敛 3. EM算法应用 4. EM算法的推广 5. sklearn.mixture.GaussianMixture 概率模型有时既有观测变量(observab ...

  7. python多维向量聚类_机器学习:Python实现聚类算法(三)之总结

    考虑到学习知识的顺序及效率问题,所以后续的几种聚类方法不再详细讲解原理,也不再写python实现的源代码,只介绍下算法的基本思路,使大家对每种算法有个直观的印象,从而可以更好的理解函数中参数的意义及作 ...

  8. 3d人脸重建 facescape 测试

    https://github.com/2706853499/3DScene facescape数据库中obj文件渲染,使用opencv绑定纹理或对三角形颜色平滑 FaceScape:大规模高质量3D人 ...

  9. Bayesian information criterion和 Akaike information criterion中的模型参数个数(自由度)计算 | 以高斯混合分布为例

    在Scikit-Learn库里面调用sklearn.mixture.GaussianMixture,有3个重要的属性n_clusters, n_weights和n_covariance,分别对应着簇中 ...

最新文章

  1. WPF实例秀——不用属性也Binding
  2. webapp 中为span元素赋值
  3. Netty入门篇-从双向通信开始
  4. android tabpageindicator 参数,Android实现Tab布局的4种方式(Fragment+TabPageIndicator+ViewPager)...
  5. 【LeetCode笔记】剑指 Offer 20. 表示数值的字符串(Java、字符串)
  6. 有人说找不到这个免费R绘图教程的数据在哪?
  7. linux调整zram大小,ZRAM将在Linux5.1上看到更高的性能-它改变了默认的压缩器
  8. 五、线程优先级和守护线程
  9. 元编程的思想是一种新的编程细想吗
  10. 敏捷个人A1组第三次练习讨论 你是如何管理你的精力的?
  11. 调试ST电机库5.20遇到的问题
  12. 【总结】计算机网络常用协议总结------结合cpri
  13. 常用 EPSG 编号对应的投影信息
  14. win7显示安装程序正在启动服务器失败,Win7安装程序正在启动服务怎么办?
  15. 医疗险十大常见误区,你中了几个?
  16. js加mysql写邮箱找回密码_邮箱找回密码 · woyong/docs Wiki · GitHub
  17. Excel VBA 002 录制宏
  18. 秃顶程序员跑马拉松历程
  19. JavaCore-ClassLoader
  20. 华为云classroom Java练习

热门文章

  1. superset二次开发
  2. Android Java代码中获取App渠道信息
  3. laravel 核心架构(1)服务容器-深入理解控制反转(IoC)和依赖注入(DI)
  4. 皮皮安学习Java第八天
  5. 阿西莫夫 - 神们自己(2015年6月23日)
  6. 深大uooc大学生心理健康章节答案第四章
  7. java 仿百度文库源码_java开发_模仿百度文库_OpenOffice2PDF_源码下载
  8. BERT生成能力改进:分离对话生成和对话理解
  9. Minecraft 1.18.1、1.18.2模组开发 17.自定义盾牌(shield)
  10. 贷前审批策略的6个搭建思路