聚类是一种无监督的学习,将相似的对象放到同一簇中,有点像是全自动分类,簇内的对象越相似,簇间的对象差别越大,则聚类效果越好。

1、k均值聚类算法

k均值聚类将数据分为k个簇,每个簇通过其质心,即簇中所有点的中心来描述。首先随机确定k个初始点作为质心,然后将数据集分配到距离最近的簇中。然后将每个簇的质心更新为所有数据集的平均值。然后再进行第二次划分数据集,直到聚类结果不再变化为止。

伪代码为

随机创建k个簇质心

当任意一个点的簇分配发生改变时:

对数据集中的每个数据点:

对每个质心:

计算数据集到质心的距离

将数据集分配到最近距离质心对应的簇

对每一个簇,计算簇中所有点的均值并将均值作为质心

python实现

import numpy as np

import matplotlib.pyplot as plt

def loadDataSet(fileName):

dataMat = []

with open(fileName) as f:

for line in f.readlines():

line = line.strip().split('\t')

dataMat.append(line)

dataMat = np.array(dataMat).astype(np.float32)

return dataMat

def distEclud(vecA,vecB):

return np.sqrt(np.sum(np.power((vecA-vecB),2)))

def randCent(dataSet,k):

m = np.shape(dataSet)[1]

center = np.mat(np.ones((k,m)))

for i in range(m):

centmin = min(dataSet[:,i])

centmax = max(dataSet[:,i])

center[:,i] = centmin + (centmax - centmin) * np.random.rand(k,1)

return center

def kMeans(dataSet,k,distMeans = distEclud,createCent = randCent):

m = np.shape(dataSet)[0]

clusterAssment = np.mat(np.zeros((m,2)))

centroids = createCent(dataSet,k)

clusterChanged = True

while clusterChanged:

clusterChanged = False

for i in range(m):

minDist = np.inf

minIndex = -1

for j in range(k):

distJI = distMeans(dataSet[i,:],centroids[j,:])

if distJI < minDist:

minDist = distJI

minIndex = j

if clusterAssment[i,0] != minIndex:

clusterChanged = True

clusterAssment[i,:] = minIndex,minDist**2

for cent in range(k):

ptsInClust = dataSet[np.nonzero(clusterAssment[:,0].A == cent)[0]]

centroids[cent,:] = np.mean(ptsInClust,axis = 0)

return centroids,clusterAssment

data = loadDataSet('testSet.txt')

muCentroids, clusterAssing = kMeans(data,4)

fig = plt.figure(0)

ax = fig.add_subplot(111)

ax.scatter(data[:,0],data[:,1],c = clusterAssing[:,0].A)

plt.show()

print(clusterAssing)

2、二分k均值算法

K均值算法可能会收敛到局部最小值,而非全局最小。一种用于度量聚类效果的指标为误差平方和(SSE)。因为取了平方,更加重视原理中心的点。为了克服k均值算法可能会收敛到局部最小值的问题,有人提出来二分k均值算法。

首先将所有点作为一个簇,然后将该簇一分为二,然后选择所有簇中对其划分能够最大程度减低SSE的值的簇,直到满足指定簇数为止。

伪代码

将所有点看成一个簇

计算SSE

while 当簇数目小于k时:

for 每一个簇:

计算总误差

在给定的簇上进行k均值聚类(k=2)

计算将该簇一分为二的总误差

选择使得误差最小的那个簇进行划分操作

python实现

import numpy as np

import matplotlib.pyplot as plt

def loadDataSet(fileName):

dataMat = []

with open(fileName) as f:

for line in f.readlines():

line = line.strip().split('\t')

dataMat.append(line)

dataMat = np.array(dataMat).astype(np.float32)

return dataMat

def distEclud(vecA,vecB):

return np.sqrt(np.sum(np.power((vecA-vecB),2)))

def randCent(dataSet,k):

m = np.shape(dataSet)[1]

center = np.mat(np.ones((k,m)))

for i in range(m):

centmin = min(dataSet[:,i])

centmax = max(dataSet[:,i])

center[:,i] = centmin + (centmax - centmin) * np.random.rand(k,1)

return center

def kMeans(dataSet,k,distMeans = distEclud,createCent = randCent):

m = np.shape(dataSet)[0]

clusterAssment = np.mat(np.zeros((m,2)))

centroids = createCent(dataSet,k)

clusterChanged = True

while clusterChanged:

clusterChanged = False

for i in range(m):

minDist = np.inf

minIndex = -1

for j in range(k):

distJI = distMeans(dataSet[i,:],centroids[j,:])

if distJI < minDist:

minDist = distJI

minIndex = j

if clusterAssment[i,0] != minIndex:

clusterChanged = True

clusterAssment[i,:] = minIndex,minDist**2

for cent in range(k):

ptsInClust = dataSet[np.nonzero(clusterAssment[:,0].A == cent)[0]]

centroids[cent,:] = np.mean(ptsInClust,axis = 0)

return centroids,clusterAssment

def biKmeans(dataSet,k,distMeans = distEclud):

m = np.shape(dataSet)[0]

clusterAssment = np.mat(np.zeros((m,2)))

centroid0 = np.mean(dataSet,axis=0).tolist()

centList = [centroid0]

for j in range(m):

clusterAssment[j,1] = distMeans(dataSet[j,:],np.mat(centroid0))**2

while (len(centList)

lowestSSE = np.inf

for i in range(len(centList)):

ptsInCurrCluster = dataSet[np.nonzero(clusterAssment[:,0].A == i)[0],:]

centroidMat,splitClustAss = kMeans(ptsInCurrCluster,2,distMeans)

sseSplit = np.sum(splitClustAss[:,1])

sseNotSplit = np.sum(clusterAssment[np.nonzero(clusterAssment[:,0].A != i)[0],1])

if (sseSplit + sseNotSplit) < lowestSSE:

bestCentToSplit = i

bestNewCents = centroidMat.copy()

bestClustAss = splitClustAss.copy()

lowestSSE = sseSplit + sseNotSplit

print('the best cent to split is ',bestCentToSplit)

# print('the len of the bestClust')

bestClustAss[np.nonzero(bestClustAss[:,0].A == 1)[0],0] = len(centList)

bestClustAss[np.nonzero(bestClustAss[:,0].A == 0)[0],0] = bestCentToSplit

clusterAssment[np.nonzero(clusterAssment[:,0].A == bestCentToSplit)[0],:] = bestClustAss.copy()

centList[bestCentToSplit] = bestNewCents[0,:].tolist()[0]

centList.append(bestNewCents[1,:].tolist()[0])

return np.mat(centList),clusterAssment

data = loadDataSet('testSet2.txt')

muCentroids, clusterAssing = biKmeans(data,3)

fig = plt.figure(0)

ax = fig.add_subplot(111)

ax.scatter(data[:,0],data[:,1],c = clusterAssing[:,0].A,cmap=plt.cm.Paired)

ax.scatter(muCentroids[:,0],muCentroids[:,1])

plt.show()

print(clusterAssing)

print(muCentroids)

代码及数据集下载:K-means

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

k means sse python_python实现kMeans算法相关推荐

  1. 聚类分析(K-means算法)

    1 聚类分析 1.1 相似度与距离度量 1.2 聚类算法 及 划分方法 2 聚类模型评估(优缺点) 3 K-means 在 sklearn方法 4 确定K值–肘部法则–SSE 5 模型评估指标–轮廓系 ...

  2. 关于《k-means算法在流式细胞仪中细胞分类的应用》的学习笔记总结

    k-means算法在流式细胞仪中细胞分类的应用之学习总结 关键字:流式细胞仪,T淋巴细胞,k-means聚类,数据挖掘应用 一.课题简介 随着信息技术和计算机技术的迅猛发展,人们面临着越来越多的文本. ...

  3. kmeans算法入门案例以聚类中心数的确定

    目录 kmeans案例分析 kmeans具体流程 案例讲解 生成的数据 代码 结果 聚类中心数的确定 肘部法 手肘法案例分析 生成的数据 代码 结果 kmeans案例分析 kmeans具体流程 第一步 ...

  4. K-means算法详解

    目录 什么是K-means算法? 如何寻找K值和质心? K-means算法流程 1.什么是K-means K-Means是一种聚类算法,其中K表示类别数,Means表示均值.K-means算法通过预先 ...

  5. K-Means算法、层次聚类、密度聚类及谱聚类方法详述

    1.聚类算法概述 (1)什么是聚类? 聚类就是对大量未知标注的数据集,按照数据内部存在的数据特征将数据集划分为多个不同的类别,使类别内的数据比较相似,类别之间的数据相似度比较小,属于无监督学习. 聚类 ...

  6. 机器学习(八)——在线学习、K-Means算法、混合高斯模型和EM算法

    http://antkillerfarm.github.io/ 贝叶斯统计和规则化(续) p(θ|S)p(\theta\vert S)可由前面的公式得到. 假若我们要求期望值的话,那么套用求期望的公式 ...

  7. 机器学习算法实践——K-Means算法与图像分割

    一.理论准备 1.1.图像分割 图像分割是图像处理中的一种方法,图像分割是指将一幅图像分解成若干互不相交区域的集合,其实质可以看成是一种像素的聚类过程.通常使用到的图像分割的方法可以分为: 基于边缘的 ...

  8. 基于改进的K-means算法在共享交通行业客户细分中的应用

    摘要:信息时代的来临使得企业营销焦点从产品中心转变为客户中心,客户关系管理成为企业的核心问题.准确的客户分类结果是企业优化营销资源分配的重要依据,客户分类越来越成为客户关系管理中亟待解决的关键问题之一 ...

  9. 《我的第一本算法书》阅读笔记 6-2 k-means 算法

    1 什么是聚类 1.1 将相似的对象分为一组 聚类就是在输入为多个数据时,将"相似"的数据分为一组的操作.1 个组就叫作 1 个 "簇".下面的示例中每个点都代 ...

  10. k means聚类算法_一文读懂K-means聚类算法

    1.引言 什么是聚类?我们通常说,机器学习任务可以分为两类,一类是监督学习,一类是无监督学习.监督学习:训练集有明确标签,监督学习就是寻找问题(又称输入.特征.自变量)与标签(又称输出.目标.因变量) ...

最新文章

  1. 系列文章|OKR与敏捷(二):实现全栈敏捷 1
  2. 原因代码10044-Erdos number Time limit exceeded
  3. 迭代器 java_面试必备(含答案):30 个 Java 高频面试问题
  4. 160 - 29 cosh.3
  5. hadoop hive 2.1.1 将Hive启动为服务
  6. Java-static关键字
  7. 《零基础》MySQL 创建数据库(五)
  8. java基础—IO流——字节流的操作演示
  9. oracle执行runstats,Oracle编程艺术--配置环境:runstats脚本
  10. 软件工程之系统建模篇【设计接口类模型】
  11. Pytorch使用tensorboardX可视化
  12. 强大的音频、视频嗅探式下载工具,还自带浏览器
  13. 怎样让超星图书浏览器不会过期 (转)
  14. 大咖带你免费学前端,附不容错过的前端100篇文章合集
  15. vcftools安装碰到的坑
  16. C++_深浅拷贝详解
  17. Cloudera Manager5.14.3集群搭建
  18. 【杂谈与乱码】我们过度解读了鲁迅先生了么?
  19. wi-fi数据双通道_有限的Wi-Fi通道会限制网络可用性吗?
  20. 如何在 Windows 上安装 ONLYOFFICE 文档 v7.2

热门文章

  1. [OHOS ERROR] clang not found, install it please
  2. DEV控件ASPxTextBox设置ClientEnabled=false之后出现的问题
  3. Redis基础6(Redis6管道)
  4. 第五章 MNIST数字识别问题(二)
  5. SQL Server 批量插入数据的两种方法 - 转
  6. 前端页面——Cookie与Session有什么差别
  7. TCxGrid 把列移上移下。
  8. 用u盘安装黑苹果10.12.3
  9. 四则运算2之设计思路篇
  10. 汇编语言-学习笔记(一)