环境:

jupyter

python3.6.5

数据集:

链接:kmeans_alod.tdz 
提取码:k3v2

准备工作

点击屏幕右上方的下载实验数据模块,选择下载kmeans_algo.tgz到指定目录下,然后再依次选择点击上方的File->Open->Upload,上传刚才下载的数据集压缩包,再使用如下命令解压:

!tar -zxvf kmeans_algo.tgz

结果如下:

kmeans_algo/
kmeans_algo/testSet.txt
kmeans_algo/testSet2.txt

【原理】无监督学习

从本节开始,我们进入了无监督学习的深深海洋。在监督学习中,即我们讲过的分类和回归,其目标变量的值是已知的。但在无监督学习中,目标变量事先并不存在。

与之前“对于输入数据X能预测变量Y”不同的是,这里要回答的问题是:“从数据X中能发现什么?”

【原理】聚类算法

我们先来介绍一下无监督学习中的聚类方法,聚类即将相似特征的数据聚集在一起,归到同一个簇中,它有点像全自动分类。聚类方法几乎可以应用于所有的数据对象,簇内的对象越相似,聚类效果越好。

用一个例子来帮助理解:

目前很常见的就是各个购物APP会为用户推荐商品,那么这个是怎么实现的呢?

APP会先收集用户的搜索记录,浏览记录等数据,因为这些数据都与用户的购物意向息息相关。然后,将这些信息输入到某个聚类算法中。接着,对聚类中的每一个簇,精心的选择,为其推荐相应的商品。最后,观察上述做法是否有效。

聚类和分类最大的不同在于,分类的目标事先已知,而聚类则不一样。聚类产生的结果与分类相同,而只是类别没有预先定义。也因此被称为无监督分类。

【原理】K-means聚类算法

在本节,我们主要介绍K-均值聚类算法,并用该算法对数据进行分组。

在介绍K-均值聚类算法前,我们先讨论一下簇识别(cluster identification)。簇识别给出聚类结果的含义,即告诉我们每堆相似的数据到底是什么。

我们已经知道聚类是将相似数归到一个簇中,那么如何度量相似呢?其取决于所选择的相似度计算方法。

接下来,开始我们对K-means聚类算法的学习!

【实验】K-均值聚类算法

K-均值是发现给定数据的k个簇的算法。而簇个数k是用户给定的,每个簇会通过其质心(centroid),即簇中所有点的中心来描述。

我们先来了解一下该算法的工作流程:

随机确定k个初始点作为质心
当任意一个点的簇分配结果发生改变时:为每个点寻找距其最近的质心将其分配给该质心所对应的簇将每个簇的质心更新为该簇所有点的平均值

在算法的工作流程中,我们提到了寻找距其最近的质心。那么如何计算“最近”的距离呢?我们可以使用任何可以度量距离的计算方法。但不同的计算方法会影响数据集上K-均值算法的性能。

本节我们使用的距离函数为欧氏距离。

下面给出该算法的代码实现:

from numpy import *
import matplotlib.pyplot as plt
import numpy as np
"""
函数说明:加载数据集
parameters:fileName -文件名
return:dataMat -数据列表
"""
def loadDataSet(fileName):      dataMat = []                fr = open(fileName)for line in fr.readlines():curLine = line.strip().split('\t')fltLine = list(map(float,curLine))  #将数据转换为float型数据dataMat.append(fltLine)return dataMat
"""
函数说明:计算向量欧氏距离
parameters:vecA -向量AvecB -向量B
return:欧氏距离
"""
def distEclud(vecA, vecB):return sqrt(sum(power(vecA - vecB, 2)))  #此处也可以使用其他距离计算公式
"""
函数说明:为给定数据集构建一个包含k个随机质心的集合
parameters:dataSet -数据集k -质心个数
return:centroids -质心列表
"""
def randCent(dataSet, k):n = shape(dataSet)[1]                           #返回数据点的维度centroids = mat(zeros((k,n)))                #创建存储质心的矩阵,初始化为0#补充下面代码,利用随机数生成函数rand()来生成随机初始centroids,注意随机质心必须在整个数据集的边界之内for j in range(n):minJ = min(dataSet[:,j])    # 求数据聚这一列的最小值rangeJ = float(max(dataSet[:,j]) - minJ)    # 求这一列的极差numpy.random.seed()centroids[:,j] = minJ + rangeJ * random.rand(k,1)    # 这样确保K个质心在数据集里面####return centroids
"""
函数说明:K-均值算法
parameters:dataSet -数据集k -簇个数distMeas -距离计算函数createCent -创建初始质心函数
return:centroids -质心列表clusterAssment -簇分配结果矩阵
"""
def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):m= shape(dataSet)[0]                                #确定数据集中数据点的总数clusterAssment = mat(zeros((m,2)))                   #创建矩阵来存储每个点的簇分配结果 #第一列记录簇索引值,第二列存储误差centroids = createCent(dataSet, k)                   #创建初始质心clusterChanged = True                                #标志变量,若为True,则继续迭代while clusterChanged:clusterChanged = False #补充下面的代码,遍历所有数据找到距离每个点最近的质心,对clusterAssment进行修改#注意判断每个点分配的质心是否发生变化,对clusterChanged正确赋值for i in range(m):minDist  = infminIndex = -1## for each centroid## step 2: find the centroid who is closestfor j in range(k):distance = distMeas(centroids[j, :], dataSet[i, :])if distance < minDist:minDist  = distanceminIndex = j## step 3: update its clusterif clusterAssment[i, 0] != minIndex:clusterChanged = TrueclusterAssment[i, :] = minIndex, minDist**2####print(centroids)    for cent in range(k): #对每一个簇ptsInClust = dataSet[nonzero(clusterAssment[:,0].A == cent)[0]]  #得到该簇中所有点的值#补充下面的代码,利用ptsInClust计算所有点的均值对centroids进行更新if len(ptsInClust) != 0:centroids[j,:] = mean(ptsInClust,axis=0)#####return centroids, clusterAssment
"""
函数说明:绘图
parameters:centList -质心列表myNewAssments -簇列表dataMat -数据集k -簇个数
return:null
"""
def drawDataSet(dataMat,centList,myNewAssments,k):fig = plt.figure()      rect=[0.1,0.1,0.8,0.8]                                             #绘制矩形scatterMarkers=['s', 'o', '^', '8', 'p', 'd', 'v', 'h', '>', '<']  #构建标记形状的列表用于绘制散点图ax1=fig.add_axes(rect, label='ax1', frameon=False)for i in range(k):                                                 #遍历每个簇ptsInCurrCluster = dataMat[nonzero(myNewAssments[:,0].A==i)[0],:]markerStyle = scatterMarkers[i % len(scatterMarkers)]          #使用索引来选择标记形状ax1.scatter(ptsInCurrCluster[:,0].flatten().A[0], ptsInCurrCluster[:,1].flatten().A[0], marker=markerStyle, s=90)ax1.scatter(centList[:,0].flatten().A[0], centList[:,1].flatten().A[0], marker='+', s=300)    #使用"+"来标记质心plt.show()if __name__ =='__main__':dataMat = mat(loadDataSet('kmeans_algo/testSet.txt'))centList,myNewAssments = kMeans(dataMat,4)print(centList)drawDataSet(dataMat,centList,myNewAssments,4)

结果如下:

运行结果:

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-4.32710065  4.33884005]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-2.70315394  2.82285365]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-2.81678621  1.89850317]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.05220257  1.03780536]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.13549715  0.11804894]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.26473312 -0.34198736]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.30007281 -0.44935216]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.34884281 -0.77772481]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.4041927  -0.8779912 ]]

[[ 1.32064461  3.70183125]

[ 4.36175727  4.65257904]

[ 1.25169295 -2.13913878]

[-3.4041927  -0.8779912 ]]

可以看到,上面的结果给出了4个质心,且经过5次迭代之后K-均值算法收敛,并在图中可以看到我们的簇分布。

[注]由于质心随机选择,运行结果可能有所不同,但每个质心列表中应有4个质心,即最终分为4个簇。

【实验】使用后处理来提高聚类性能

到目前为止,我们看到K-均值聚类算法进行的很顺利,但还有些事情我们需要注意一下。

在最开始的时候,我们随机指定了k个质心,这导致数据最开始就被分成了k个簇,不断的更新每个簇,最终只能收敛到簇内的局部最小值,而非全局最小值,即最好结果。

前面提到过用户可以指定簇的个数k值,那么问题来了。用户如何才能知道,选择的k值是否合适?生成的簇的结果是否好呢?

即我们需要一个指标来度量聚类质量。在包含簇分配结果的矩阵中保存着每个点的误差(该点到质心的距离平方值)。

一种用于度量聚类效果的指标是SSE(sum of squared error,误差平方和),sse值越小表示数据点越接近它的质心,聚类效果越好。因为对误差取了平方,因此距离质心较远的点所占的比重会更大。

一种肯定可以降低sse值的方法是:增加簇的个数,但这并不会对数据分组有什么好的效果。聚类的目标是保持簇个数不变的情况下提高簇的质量。

还有一种方法是对生成的簇进行后处理。在保持簇总数不变的情况下,对某两个簇进行合并。具体做法是合并最近的质心,或者合并两个使得sse增幅最小的质心。

【实验】结果分析

K-均值聚类

优点:容易实现

缺点:可能收敛到局部最小值,在大规模数据集上收敛较慢

使用数据类型:数值型数据

接下来,我们将讨论利用上述簇划分技术得到更好的聚类结果的方法。快进入下一节吧。

【实验】二分K-均值算法

为克服K-均值算法收敛于局部最小值的问题,本节我们介绍一种二分K-均值(bisecting K-means)的算法。

该算法首先将所有点看作一个簇,然后将该簇一分为二。之后选择其中一个簇继续进行划分,选择哪一个簇则取决于对其划分是否可以最大程度降低SSE的值。

可以看出该算法是基于SSE的划分过程。最终划分的簇个数是用户指定的簇数目。

【实验】代码实现

话不多说,我们按照该算法的工作流程给出以下代码。

"""
函数说明:二分K-均值聚类算法
parameters:dataSet -数据集k -期望簇个数distMeas -距离计算函数
return:mat(centList) -质心列表矩阵clusterAssment -聚类结果
"""
def biKmeans(dataSet, k, distMeas=distEclud):m = shape(dataSet)[0]                                   #得到数据集中样本点的个数clusterAssment = mat(zeros((m,2)))                      #创建存储每个样本点的簇信息centroid0 = mean(dataSet, axis=0).tolist()[0]           #最初将所有的数据看作一个簇,计算其均值centList =[centroid0]                                   #创建质心列表for j in range(m):                                      #遍历所有数据clusterAssment[j,1] = distMeas(mat(centroid0), dataSet[j,:])**2  #计算每个样本点与质点的距离while (len(centList) < k):                              #判断是否已经划分到用户指定的簇个数lowestSSE = inf                                     #将最小SSE设为无穷大for i in range(len(centList)):                      #遍历所有簇#在下方添加代码,记录当前访问簇中所有点,并对这些点做k=2的k均值聚类处理,得到一个数据划分结果#统计当前划分数据的SSE和未划分数据的SSE的总和,和最小SSE进行比较,从而找到最佳划分。#用bestCentToSplit记录最佳划分簇序号,用bestNewCents记录新划分出来的质心,用bestClustAss记录新划分的簇分配结果ptsInCurrCluster = dataSet[nonzero(clusterAssment[:,0].A==i)[0],:]centroidMat, splitClustAss = kMeans(ptsInCurrCluster,2,distMeas)  # centroidMat 2*n维,splitClustAss是m*2while centroidMat is None:   # 判断随机选取的质心是否合格centroidMat, splitClustAss = kMeans(ptsInCurrCluster,2,distMeas)  # centroidMat 2*n维,splitClustAss是m*2sseSplit = sum(splitClustAss[:,1])sseNotSplit = sum(clusterAssment[nonzero(clusterAssment[:,0].A != i)[0],1])print('sseSplit={0} and notSplit={1}'.format(sseSplit,sseNotSplit))if (sseSplit + sseNotSplit) < lowestSSE:bestCentToSplit = ibestNewCents = centroidMatbestClustAss = splitClustAss.copy()lowestSSE = sseSplit + sseNotSplit#思考下面两行代码的作用bestClustAss[nonzero(bestClustAss[:,0].A == 1)[0],0] = len(centList)        #由于使用二分均值聚类,会得到两个编号分别为0和1的结果簇bestClustAss[nonzero(bestClustAss[:,0].A == 0)[0],0] = bestCentToSplit      #需要将这些簇编号更新为新加簇的编号print ('最佳划分簇为: ',bestCentToSplit)print ('最佳簇的长度为: ', len(bestClustAss))#在下方添加代码,更新质心列表centList和簇分配结果clusterAssment,使用上面提到的bestNewCents和bestClustAsscentList[bestCentToSplit] = bestNewCents[0,:].tolist()[0]  # 一个质点把它父亲质点顶了centList.append(bestNewCents[1,:].tolist()[0])     # 剩下那个质点添加到后面clusterAssment[nonzero(clusterAssment[:,0].A == bestCentToSplit)[0],:] = bestClustAss####return mat(centList), clusterAssmentif __name__ =='__main__':dataMat = mat(loadDataSet('kmeans_algo/testSet2.txt'))centList,myNewAssments =biKmeans(dataMat,3)print(centList)drawDataSet(dataMat,centList,myNewAssments,3)

运行结果:

[[ 1.73121982  3.04752666]

[-1.84906828  1.18487972]]

[[ 1.73121982  3.04752666]

[-1.70351595  0.27408125]]

[[ 1.73121982  3.04752666]

[-1.72153338 -0.00938424]]

sseSplit=547.8686382073619 and notSplit=0.0

最佳划分簇为:  0

最佳簇的长度为:  60

[[ 1.41454045  1.39915256]

[ 2.27602618  4.12122875]]

[[ 1.41454045  1.39915256]

[ 2.34869253  3.62671306]]

[[ 1.41454045  1.39915256]

[ 2.74462495  3.36267811]]

[[ 1.41454045  1.39915256]

[ 2.95977168  3.26903847]]

sseSplit=83.3092372692958 and notSplit=513.6672407898433

[[-2.51247379  4.3761405 ]

[-4.21332667 -2.33351759]]

[[-2.51247379  4.3761405 ]

[-0.45965615 -2.7782156 ]]

sseSplit=314.91322392925616 and notSplit=34.20139741751857

最佳划分簇为:  1

最佳簇的长度为:  37

[[ 1.73121982  3.04752666]

[-2.51247379  4.3761405 ]

[-0.45965615 -2.7782156 ]]

可以看到聚类会收敛到全局最小值。

K-均值聚类算法和二分K-均值算法相关推荐

  1. spark Bisecting k-means(二分K均值算法)

    Bisecting k-means(二分K均值算法) 二分k均值(bisecting k-means)是一种层次聚类方法,算法的主要思想是:首先将所有点作为一个簇,然后将该簇一分为二.之后选择能最大程 ...

  2. k均值聚类算法考试例题_k means聚类算法实例

    所谓聚类问题,就是给定一个元素集合D,其中每个元素具有n个可观察属性,使用某种算法将D划分成k个子集,要求每个子集内部的元素之间相异度尽可能低,而不同子集的元素相异度尽可能高.其中每个子集叫做一个簇. ...

  3. 聚类之K均值聚类和EM算法

    这篇博客整理K均值聚类的内容,包括: 1.K均值聚类的原理: 2.初始类中心的选择和类别数K的确定: 3.K均值聚类和EM算法.高斯混合模型的关系. 一.K均值聚类的原理 K均值聚类(K-means) ...

  4. K-Means(K均值)聚类算法

    K-mean ​ 初始数据集如下图所示,数据集未做任何标记labels 要求将其分为两簇,K均值算法的操作原理为: 随机挑选两个点作为聚类中心(cluster centroids),K-均值算法是一个 ...

  5. Python,OpenCV中的K均值聚类——K-Means Cluster

    Python,OpenCV中的K均值聚类 1. 效果图 2. 原理 2.1 什么是K均值聚类? 2.2 K均值聚类过程 2.3 cv2.kmeans(z, 2, None, criteria, 10, ...

  6. python机器学习库sklearn——k均值聚类

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 k均值聚类的相关的知识内容可以参考 http://blog.csdn.net/luanpeng825485697/article/de ...

  7. opencv入门:支持向量机,K均值聚类

    支持向量机 支持向量机是一种二分类模型,目标是寻找一个标准(称为超平面)对样本数据进行分割,分割的原则是确保分类最优化(类别之间的间隔最大),当数据集较小时,使用支持向量机进行分类非常有效.支持向量机 ...

  8. 基于K均值聚类的葡萄酒品种判别

    特别注意:主要思路.程序和分析过程来源于:https://www.kaggle.com/xvivancos/tutorial-clustering-wines-with-k-means.本文在此基础上 ...

  9. 图像聚类-K均值聚类

    最近做的一个东西跟这个相关,本来希望是用深度学习对于没有标签的图像数据进行分类,但是通常情况下,深度学习是对有标签的数据进行学习,目的是用来自动提取特征,代替传统的手工提取特征.因此,比较容易想到,对 ...

  10. OpenCV学习笔记(十七)——K均值聚类

    当我们要预测的是一个离散值时,做的工作就是"分类".机器学习模型还可以将训练集中的数据划分为若干个组,每个组被称为一个"簇(cluster)".它的重要特点是在 ...

最新文章

  1. Luogu 1541 乌龟棋
  2. 【Kotlin】扩展接收者 与 分发接收者 ( 类内部扩展用法 | 注意事项 | open 修饰扩展 )
  3. 通过程序获得SQL Server自增型字段的函数:GetKey
  4. c:forEach循环的List为String时的写法
  5. Linux下动态链接库调用
  6. 机器学习实践:onnx模型转为Tensorflow2的pb模型2020
  7. Python常见数据结构整理
  8. mysql实体_mysql实体关系
  9. 设计模式---5(建造者模式的概念及其实现,建造者模式的角色与职责,建造者模式和工厂模式的区别)
  10. 173. 二叉搜索树迭代器/94. 二叉树的中序遍历/145. 二叉树的后序遍历/98. 验证二叉搜索树
  11. 说出来你可能不信,谷歌一年要给苹果交200亿保护费。
  12. VMware workstation和ESXi的区别
  13. 《我也能做CTO之程序员职业规划》推荐序
  14. 断网问题解决【值得一记】
  15. centos npm install 超时报错
  16. 电脑打印机print spooler服务总是自动停止的解决方法...
  17. PCB,原理图 最流行的画图画板软件有哪些?
  18. 面试问题——英语38 教育孩子 管理时间 看电视
  19. 1-10000的素数 java_java实验题(1-10000之间的素数和)
  20. 如何去除 录像开始和结束时 的噔噔噔噔声音

热门文章

  1. css3实现图片旋转木马效果
  2. java 多线程详细(转载)
  3. PNG格式小图标的CSS任意颜色赋色技术
  4. 20162327WJH实验五——数据结构综合应用
  5. 计算机硬件系统基本组成
  6. APM32F103C8T6兼容性测试
  7. 数据拟合之Excel篇
  8. 左耳朵耗子 | 技术人员的发展之路
  9. arcgis更改默认路径
  10. 自动合并两个.bib 去除.bib中的重复条目