K-Means原理初探

K-Means算法的思想很简单,对于给定的样本集,按照样本之间的距离大小,将样本集划分为K个簇。让簇内的点尽量紧密的连在一起,而让簇间的距离尽量的大。

如果我们想直接求上式的最小值并不容易,这是一个NP难的问题,因此只能采用启发式的迭代方法。

K-Means采用的启发式方式很简单,用下面一组图就可以形象的描述。

图a表达了初始的数据集,假设k=2。在图b中,我们随机选择了两个k类所对应的类别质心,即图中的红色质心和蓝色质心,然后分别求样本中所有点到这两个质心的距离,并标记每个样本的类别为和该样本距离最小的质心的类别,如图c所示,经过计算样本和红色质心和蓝色质心的距离,我们得到了所有样本点的第一轮迭代后的类别。此时我们对我们当前标记为红色和蓝色的点分别求其新的质心,如图4所示,新的红色质心和蓝色质心的位置已经发生了变动。图e和图f重复了我们在图c和图d的过程,即将所有点的类别标记为距离最近的质心的类别并求新的质心。最终我们得到的两个类别如图f。

当然在实际K-Mean算法中,我们一般会多次运行图c和图d,才能达到最终的比较优的类别。

1. 归类:

          聚类(clustering) 属于非监督学习 (unsupervised learning)
          无类别标记(class label)
 
2. 举例:

3. K-means 算法:
 
     3.1 Clustering 中的经典算法,数据挖掘十大经典算法之一
     3.2 算法接受参数 k ;然后将事先输入的n个数据对象划分为 k个聚类以便使得所获得的聚类满足:同一
           聚类中的对象相似度较高;而不同聚类中的对象相似度较小。
     3.3 算法思想:
           以空间中k个点为中心进行聚类,对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心     
           的值,直至得到最好的聚类结果
     3.4 算法描述:
          
          (1)适当选择c个类的初始中心;
          (2)在第k次迭代中,对任意一个样本,求其到c各中心的距离,将该样本归到距离最短的中心所在     
                  的类;
          (3)利用均值等方法更新该类的中心值;
          (4)对于所有的c个聚类中心,如果利用(2)(3)的迭代法更新后,值保持不变,则迭代结束,
                   否则继续迭代。
     3.5 算法流程:
输入:k, data[n];(1) 选择k个初始中心点,例如c[0]=data[0],…c[k-1]=data[k-1];
(2) 对于data[0]….data[n], 分别与c[0]…c[k-1]比较,假定与c[i]差值最少,就标记为i;
(3) 对于所有标记为i点,重新计算c[i]={ 所有标记为i的data[j]之和}/标记为i的个数;
(4) 重复(2)(3),直到所有c[i]值的变化小于给定阈值。

优点:速度快,简单
缺点:最终结果跟初始点选择相关,容易陷入局部最优,需直到k值

In [5]:
import numpy as npdef shouldStop(oldCentroids, centroids, iterations, maxIt):"""
    :param oldCentroids: 老的聚类中心
    :param centroids: 聚类中心
    :param iterations: 第几次迭代
    :param maxIt: 最大迭代次数
    :return: True or False
    """if iterations > maxIt:return Truereturn np.array_equal(oldCentroids, centroids)def updateLabels(dataSet, centroids):"""
    更新数据集中每个点的类别
    :param dataSet: 数据集
    :param centroids: 聚类中心
    """numPoints, numDim = dataSet.shapefor i in range(0, numPoints):dataSet[i, -1] = getLabelFromClosestCentroid(dataSet[i, :-1], centroids)def getLabelFromClosestCentroid(dataSetRow, centroids):"""
    :param dataSetRow:数据集中一个实例(一个点)
    :param centroids: 聚类中心
    :return: 返回属于哪个标签(属于哪个类)
    """label = centroids[0, -1]  # 初始化类别为第0个实例的类别minDist = np.linalg.norm(dataSetRow - centroids[0, :-1])  # 初始化最小距离为与第0个聚类中心的距离for i in range(1, centroids.shape[0]):dist = np.linalg.norm(dataSetRow - centroids[i, :-1])  # 欧式距离if dist < minDist:minDist = distlabel = centroids[i, -1]print("minDist:", minDist)return labeldef getCentroids(dataSet, k):"""
    # Each centroid is the geometric mean of the points that
    # have that centroid's label. Important: If a centroid is empty (no points have
    # that centroid's label) you should randomly re-initialize it.
    :param dataSet: 数据集
    :param k: 几个类别
    :return: 更新之后的聚类中心
    """result = np.zeros((k, dataSet.shape[1]))for i in range(1, k + 1):oneCluster = dataSet[dataSet[:, -1] == i, :-1]result[i - 1, :-1] = np.mean(oneCluster + np.spacing(1), axis=0)  # 防止对空列表求平均result[i - 1, -1] = ireturn result

ML之Kmeans:利用自定义Kmeans函数实现对多个坐标点(自定义四个点)进行自动(最多迭代10次)分类

In [6]:
def kmeans(X, k, maxIt):numPoints, numDim = X.shapedataSet = np.zeros((numPoints, numDim + 1))dataSet[:, :-1] = Xcentroids = dataSet[np.random.randint(numPoints, size=k), :]# centroids = dataSet[0:2, :]         # Randomly assign labels to initial centorid给初始中心随机分配标签centroids[:, -1] = range(1, k + 1)iterations = 0oldCentroids = Nonewhile not shouldStop(oldCentroids, centroids, iterations, maxIt):print("iteration: \n", iterations)print("dataSet: \n", dataSet)print("centroids: \n", centroids)# Save old centroids for convergence test. Book keeping.oldCentroids = np.copy(centroids)iterations += 1updateLabels(dataSet, centroids)centroids = getCentroids(dataSet, k)return dataSet

In [10]:
x1 = np.array([1, 1])
x2 = np.array([2, 1])
x3 = np.array([4, 3])
x4 = np.array([5, 4])
testX = np.vstack((x1, x2, x3, x4))result = kmeans(testX, 2, 10)
print("final result:")
print(result)

iteration: 0
dataSet: [[1. 1. 0.][2. 1. 0.][4. 3. 0.][5. 4. 0.]]
centroids: [[1. 1. 1.][4. 3. 2.]]
minDist: 0.0
minDist: 1.0
minDist: 0.0
minDist: 1.4142135623730951
iteration: 1
dataSet: [[1. 1. 1.][2. 1. 1.][4. 3. 2.][5. 4. 2.]]
centroids: [[1.5 1.  1. ][4.5 3.5 2. ]]
minDist: 0.5
minDist: 0.5
minDist: 0.7071067811865476
minDist: 0.7071067811865476
final result:
[[1. 1. 1.][2. 1. 1.][4. 3. 2.][5. 4. 2.]]

转载于:https://www.cnblogs.com/xinmomoyan/p/10706514.html

07机器学习实战k-means相关推荐

  1. 模式识别和机器学习实战-K近邻算法(KNN)- Python实现 - 约会网站配对效果判断和手写数字识别

    文章目录 前言 一. k-近邻算法(KNN) 1.算法介绍 2.举个例子--电影分类 3.步骤描述 4.来了--代码实现 二.实战之约会网站配对效果判断 1.导入数据 2.分析数据 3.数据归一化 4 ...

  2. 机器学习实战——K均值

    文章目录 1 K均值聚类算法 2 使用后处理来提高聚类性能 3 二分K-均值算法 4 示例:对地图上的点进行聚类 5 总结 6 补充 Supervised learning:目标变量实现存在 输入X, ...

  3. 机器学习实战--决策树ID3的构建、画图与实例:预测隐形眼镜类型

    声明 本文参考了<机器学习实战>书中代码,结合该书讲解,并加之自己的理解和阐述 机器学习实战系列博文 机器学习实战--k近邻算法改进约会网站的配对效果 机器学习实战--决策树的构建.画图与 ...

  4. 机器学习实战--Logistic回归与实例:从疝病症预测病马的死亡率

    声明 本文参考了<机器学习实战>书中代码,结合该书讲解,并加之自己的理解和阐述 机器学习实战系列博文 机器学习实战--k近邻算法改进约会网站的配对效果 机器学习实战--决策树的构建.画图与 ...

  5. 刻意练习:机器学习实战 -- Task01. K邻近算法

    背景 这是我们为拥有 Python 基础的同学推出的精进技能的"机器学习实战" 刻意练习活动,这也是我们本学期推出的第三次活动了. 我们准备利用8周时间,夯实机器学习常用算法,完成 ...

  6. 统计学方法机器学习实战(二) K近邻算法

    目录 一.前言: 二.理论难点: 距离度量: 欧式距离: 三.数据可视化 四.数据归一化: 五.代码实践: 理论补充 实验一: 海伦约会 实验二 使用sklearn实现knn 六.总结 1.kNN算法 ...

  7. k近邻算法python解读_Python3《机器学习实战》学习笔记(一):k-近邻算法(史诗级干货长文)...

    运行平台: Windows IDE: Sublime text3 一.简单k-近邻算法 本文将从k-近邻 1.k-近邻法简介 k近邻法(k-nearest neighbor, k-NN)是1967年由 ...

  8. 机器学习实战---朴素贝叶斯算法实现+使用K折交叉验证(代码详解+创新)

    <机器学习实战朴素贝叶斯算法实现+使用K折交叉验证> 未经允许,不得擅自转载! 提供数据集如下(永久有效,需要的自行下载): 链接:https://pan.baidu.com/s/1Sv0 ...

  9. 《机器学习实战》萌新入门笔记 ① — — K近邻算法 趣味讲解和书本实例详细注释后代码

    开坑前言:大一在读新生开启了自己的机器学习之旅,从接触到现在已经有快两个月了,现在回过头为夯实基础,从开始看起<机器学习实战>这本书,即使是最简单的KNN算法,详细看过作者用python实 ...

最新文章

  1. Android推送通知指南(转)
  2. css 动态rem_HTML + CSS 为何得不到编程界的认可?
  3. Bailian2942 吃糖果【递推+打表】
  4. mybatis多数据源配置_springboot+mybatis+aop配置动态数据源
  5. 微信网页开发(3)--微信网页授权
  6. 给初学者:用VB写外挂 ———— 如何给外挂定义一组热键:红色警戒五项属性修改器VB版
  7. 暂住证因为什么事件取消了_全面取消暂住证制度 一字之变逾2亿人受益
  8. 本人累计多年整理的所有软件 需要请留言 适合毕业设计参考
  9. 香橙派 One Plus 像单片机一样硬件寄存器 控制GPIO 点灯
  10. 图的计算(1):图的矩阵表示
  11. linux 编译pcl,PCL/python-pcl Linux源码编译安装
  12. 单枪匹马撸个聊天室, 支持Web/Android/iOS三端
  13. 个人对粗糙集的一些理解和简单举例
  14. C# windows服务:创建Windows服务(Windows Services)的一般步骤
  15. 山东大学软件学院2021软件测试考试回忆
  16. 投石问路 IBM于12月出货GPU刀片服务器(1) - 51CTO.COM
  17. HSDPA技术特点及网络部署(转)
  18. 数据大屏项目Vue+DataV+Echarts(附源码)
  19. [Buzz.Today]Kindle Fire与Android 4的源代码
  20. 解决阿里云OSS,打开图片地址无法预览,直接下载

热门文章

  1. 20年的人工智能设计总结:向产品中注入人工智能的指南
  2. AI 场景的价值体现——视觉 AI 技术落地实践
  3. 代码详解:最全面的卷积神经网络介绍,都在这里了
  4. 干货丨从硬件配置到框架选择,请以这种姿势入坑深度学习
  5. Tensorflow—交叉熵
  6. [美]杰克·巴尔金:算法社会中的三大法则
  7. 学科交叉是科学发展的必然趋势
  8. 十问亿级神经元类脑计算机:AI领域有望突破,哪些还需火候
  9. 《崛起的超级智能》入选中国好书2019年7月榜单
  10. 2018年科技公司融资纪录十大排行榜!中国四家公司上榜