引入

作为练手,不妨用matlab实现K-means

要解决的问题:n个D维数据进行聚类(无监督),找到合适的簇心。

这里仅考虑最简单的情况,数据维度D=2,预先知道簇心数目K(K=4)

理论步骤

关键步骤:

(1)根据K个簇心(clusters,下标从1到K),确定每个样本数据Di(D为所有数据整体,Di为某个数据,i=1...n)所属簇,即欧氏距离最近的那个。

簇心编号:

c_i = arg min_{j} {D_i - clusters_j}, 即使得欧氏距离最近的那个j

(2) 更新簇心:所属簇编号c_i相同的样本数据D_i的元素们,用他们均值来替代原有簇心(D维向量均值)

代码

% my_kmeans

% By Chris, zchrissirhcz@gmail.com

% 2016年9月30日 19:13:43

% 簇心数目k

K = 4;

% 准备数据,假设是2维的,80条数据,从data.txt中读取

%data = zeros(100, 2);

load 'data.txt'; % 直接存储到data变量中

x = data(:,1);

y = data(:,2);

% 绘制数据,2维散点图

% x,y: 要绘制的数据点 20:散点大小相同,均为20 'blue':散点颜色为蓝色

s = scatter(x, y, 20, 'blue');

title('原始数据:蓝圈;初始簇心:红点');

% 初始化簇心

sample_num = size(data, 1); % 样本数量

sample_dimension = size(data, 2); % 每个样本特征维度

% 暂且手动指定簇心初始位置

clusters = zeros(K, sample_dimension);

clusters(1,:) = [-3,1];

clusters(2,:) = [2,4];

clusters(3,:) = [-1,-0.5];

clusters(4,:) = [2,-3];

hold on; % 在上次绘图(散点图)基础上,准备下次绘图

% 绘制初始簇心

scatter(clusters(:,1), clusters(:,2), 'red', 'filled'); % 实心圆点,表示簇心初始位置

c = zeros(sample_num, 1); % 每个样本所属簇的编号

PRECISION = 0.0001;

iter = 100; % 假定最多迭代100次

for i=1:iter

% 遍历所有样本数据,确定所属簇。公式1

for j=1:sample_num

%t = arrayfun(@(item) item

%[min_val, idx] = min(t);

gg = repmat(data(j,:), K, 1);

gg = gg - clusters; % norm:计算向量模长

tt = arrayfun(@(n) norm(gg(n,:)), (1:K)');

[minVal, minIdx] = min(tt);

% data(j,:)的所属簇心,编号为minIdx

c(j) = minIdx;

end

% 遍历所有样本数据,更新簇心。公式2

convergence = 1;

for j=1:K

up = 0;

down = 0;

for k=1:sample_num

up = up + (c(k)==j) * data(k,:);

down = down + (c(k)==j);

end

new_cluster = up/down;

delta = clusters(j,:) - new_cluster;

if (norm(delta) > PRECISION)

convergence = 0;

end

clusters(j,:) = new_cluster;

end

figure;

f = scatter(x, y, 20, 'blue');

hold on;

scatter(clusters(:,1), clusters(:,2), 'filled'); % 实心圆点,表示簇心初始位置

title(['第', num2str(i), '次迭代']);

if (convergence)

disp(['收敛于第', num2str(i), '次迭代']);

break;

end

end

disp('done');

使用到的数据(data.txt)

1.658985 4.285136

-3.453687 3.424321

4.838138 -1.151539

-5.379713 -3.362104

0.972564 2.924086

-3.567919 1.531611

0.450614 -3.302219

-3.487105 -1.724432

2.668759 1.594842

-3.156485 3.191137

3.165506 -3.999838

-2.786837 -3.099354

4.208187 2.984927

-2.123337 2.943366

0.704199 -0.479481

-0.392370 -3.963704

2.831667 1.574018

-0.790153 3.343144

2.943496 -3.357075

-3.195883 -2.283926

2.336445 2.875106

-1.786345 2.554248

2.190101 -1.906020

-3.403367 -2.778288

1.778124 3.880832

-1.688346 2.230267

2.592976 -2.054368

-4.007257 -3.207066

2.257734 3.387564

-2.679011 0.785119

0.939512 -4.023563

-3.674424 -2.261084

2.046259 2.735279

-3.189470 1.780269

4.372646 -0.822248

-2.579316 -3.497576

1.889034 5.190400

-0.798747 2.185588

2.836520 -2.658556

-3.837877 -3.253815

2.096701 3.886007

-2.709034 2.923887

3.367037 -3.184789

-2.121479 -4.232586

2.329546 3.179764

-3.284816 3.273099

3.091414 -3.815232

-3.762093 -2.432191

3.542056 2.778832

-1.736822 4.241041

2.127073 -2.983680

-4.323818 -3.938116

3.792121 5.135768

-4.786473 3.358547

2.624081 -3.260715

-4.009299 -2.978115

2.493525 1.963710

-2.513661 2.642162

1.864375 -3.176309

-3.171184 -3.572452

2.894220 2.489128

-2.562539 2.884438

3.491078 -3.947487

-2.565729 -2.012114

3.332948 3.983102

-1.616805 3.573188

2.280615 -2.559444

-2.651229 -3.103198

2.321395 3.154987

-1.685703 2.939697

3.031012 -3.620252

-4.599622 -2.185829

4.196223 1.126677

-2.133863 3.093686

4.668892 -2.562705

-2.793241 -2.149706

2.884105 3.043438

-2.967647 2.848696

4.479332 -1.764772

-4.905566 -2.911070

运行结果

缺点

非常naive的kmeans,对于K个簇心初始位置非常敏感,有时候会产生dead point,即有些簇心被孤立而没有样本数据归属它。

第一次改进:簇心向量的每个维度,在样本数据的各自维度的最小值和最大值之间取值

clusters = zeros(K, sample_dimension);

minVal = min(data); % 各维度计算最小值

maxVal = max(data); % 各维度计算最大值

for i=1:K

clusters(i, :) = minVal + (maxVal - minVal) * rand();

end

效果:

第二次改进:在线K-means,使用随机梯度下降SGD替代批量梯度下降BGD

思路是,每次仅仅取出一个样本数据x_i,找出离他最近的簇心cluster_j,并把簇心往x_i的方向拉。这替代了原来使用“所有的、类别编号为c_j的样本,算出一个均值,作为新簇心”策略.

同时考虑到收敛速度,每次将“最近的簇心”向数据项“拉取”的时候,乘以一个学习率eta,eta最好是随着迭代次数增加而有所减小,即迭代次数t的减函数。此处代码实现中使用倒数(eta = basic_eta/i),你也可以用更精致的函数替代。

参考代码:

% 簇心数目k

K = 4;

% 准备数据,假设是2维的,80条数据,从data.txt中读取

%data = zeros(100, 2);

load 'data.txt'; % 直接存储到data变量中

x = data(:,1);

y = data(:,2);

% 绘制数据,2维散点图

% x,y: 要绘制的数据点 20:散点大小相同,均为20 'blue':散点颜色为蓝色

s = scatter(x, y, 20, 'blue');

title('原始数据:蓝圈;初始簇心:红点');

% 初始化簇心

sample_num = size(data, 1); % 样本数量

sample_dimension = size(data, 2); % 每个样本特征维度

% 暂且手动指定簇心初始位置

% clusters = zeros(K, sample_dimension);

% clusters(1,:) = [-3,1];

% clusters(2,:) = [2,4];

% clusters(3,:) = [-1,-0.5];

% clusters(4,:) = [2,-3];

% 簇心赋初值:计算所有数据的均值,并将一些小随机向量加到均值上

clusters = zeros(K, sample_dimension);

minVal = min(data); % 各维度计算最小值

maxVal = max(data); % 各维度计算最大值

for i=1:K

clusters(i, :) = minVal + (maxVal - minVal) * rand();

end

hold on; % 在上次绘图(散点图)基础上,准备下次绘图

% 绘制初始簇心

scatter(clusters(:,1), clusters(:,2), 'red', 'filled'); % 实心圆点,表示簇心初始位置

c = zeros(sample_num, 1); % 每个样本所属簇的编号

PRECISION = 0.001;

iter = 100; % 假定最多迭代100次

% Stochastic Gradient Descendant 随机梯度下降(SGD)的K-means,也就是Competitive Learning版本

basic_eta = 0.1; % learning rate

for i=1:iter

pre_acc_err = 0; % 上一次迭代中,累计误差

acc_err = 0; % 累计误差

for j=1:sample_num

x_j = data(j, :); % 取得第j个样本数据,这里体现了stochastic性质

% 所有簇心和x计算距离,找到最近的一个(比较簇心到x的模长)

gg = repmat(x_j, K, 1);

gg = gg - clusters;

tt = arrayfun(@(n) norm(gg(n,:)), (1:K)');

[minVal, minIdx] = min(tt);

% 更新簇心:把最近的簇心(winner)向数据x拉动。 eta为学习率.

eta = basic_eta/i;

delta = eta*(x_j-clusters(minIdx,:));

clusters(minIdx,:) = clusters(minIdx,:) + delta;

acc_err = acc_err + norm(delta);

end

if(rem(i,10) ~= 0)

continue

end

figure;

f = scatter(x, y, 20, 'blue');

hold on;

scatter(clusters(:,1), clusters(:,2), 'filled'); % 实心圆点,表示簇心初始位置

title(['第', num2str(i), '次迭代']);

if (abs(acc_err-pre_acc_err) < PRECISION)

disp(['收敛于第', num2str(i), '次迭代']);

break;

end

disp(['累计误差:', num2str(abs(acc_err-pre_acc_err))]);

pre_acc_err = acc_err;

end

disp('done');

因为学习率eta选得比较随意,以及收敛条件的判断也比较随意,收敛效果只能说还凑合,运行结果:

matlab kmeans c 代码,K-means之matlab实现相关推荐

  1. MATLAB K-means聚类代码讲解

    一.概述 K-means聚类采用类内距离和最小的方式对数据分类,MATLAB中自带K-means算法,最简单的调用如下: idx=kmeans(x,k) 将n-by-p数据矩阵x中的数据划分为k个类簇 ...

  2. matlab 开 闭 代码,C++中的MATLAB函数〔闭锁〕

    很抱歉恢复了一个老问题,但我目前正在研究一个开源C++库,它正好回答了这个问题: KeyCpp 是一个开源的C++库,它提供了Matlab或八度音阶的语法,用于一些有用的数值方法和一些绘图功能.目前有 ...

  3. matlab比例环节代码,典型环节的MATLAB仿真

    <典型环节的MATLAB仿真>由会员分享,可在线阅读,更多相关<典型环节的MATLAB仿真(10页珍藏版)>请在人人文库网上搜索. 1.实验一 典型环节的MATLAB仿真一.实 ...

  4. matlab灰色关联代码,灰色关联分析matlab代码

    灰色关联分析 function output=grayrela(x0) %参考因子与比较因子共同存储在一个矩阵x0中,参考因子位于第一列 %斜率序列 for i=2:length(x0(:,1)) x ...

  5. matlab dmc控制代码,【原创】Matlab实现DMC控制加热炉程序

    DMC单入单出控制程序 这是一个加热炉控制程序 程序是自己编的 请大家指正 [math]$\frac{0.6 \exp(-20)}{2400 s^2+85s+1}$ [/math] Contents ...

  6. Matlab k-means

    K-means 聚类算法 Syntax Description Input Arguments Examples Train a k-Means Clustering Algorithm Partit ...

  7. kmeans改进 matlab,基于距离函数的改进k―means 算法

    摘要:聚类算法在自然科学和和社会科学中都有很普遍的应用,而K-means算法是聚类算法中经典的划分方法之一.但如果数据集内相邻的簇之间离散度相差较大,或者是属性分布区间相差较大,则算法的聚类效果十分有 ...

  8. 基于 K-means 聚类算法实现图像区域分割matlab代码

    1 简介 对图像进行颜色区域分割.将图像转换到CIE L*a*b颜色空间,用K均值聚类分析算法对描述颜色的a*和b*通道进行聚类分析;通过提取各个颜色区域独立成为单色的新图像,对图像进行分割处理.实验 ...

  9. 【图像分割】基于 K-means 聚类算法实现图像区域分割matlab代码

    1 简介 对图像进行颜色区域分割.将图像转换到CIE L*a*b颜色空间,用K均值聚类分析算法对描述颜色的a*和b*通道进行聚类分析;通过提取各个颜色区域独立成为单色的新图像,对图像进行分割处理.实验 ...

最新文章

  1. jquery 获取和设置 select下拉框的值(转手册)
  2. 深度学习帮助人工智能走得更远
  3. 高级JAVA码农必须搞清楚它们的区别:instanceof、isInstance、isAssignableFrom
  4. unef螺纹_PT螺纹,NPT螺纹,G螺纹,公制螺纹的区别
  5. C# 知识点笔记:IEnumerable的使用,利用反射动态调用方法
  6. [机器学习] 机器学习中所说的“线性模型”是个什么东西?
  7. (一)SVM的八股简介
  8. 尼尔机械纪元 机器人博士_还记得章鱼博士吊打蜘蛛侠的炫酷机械臂吗?现实版已经研发出来了...
  9. 分享一套比较全的Java技术栈,值得参考!
  10. EMS、CEM、OEM、ODM、IDH、IDM介绍
  11. 机器学习笔记 - 单位矩阵和逆矩阵
  12. 【计算机科学】【2019.05】城市街道交叉口三维点云和照片模型的精度分析
  13. 使用C#实现支持人脸识别的本地照片管理工具
  14. [转][TFS] 禁止默认允许多人签出和强制解除签入签出锁
  15. 中国真正的毒奶粉在哪
  16. 爬取网页表格到Excel ?别再复制粘贴了,太慢!
  17. poi导出excel 损坏_Java使用POI生成Excel文件后打不开的问题
  18. html好看的文字特效
  19. Win10 启动模拟器
  20. 基于51单片机设计的交通灯

热门文章

  1. java程序设计_十分钟说课—Java程序设计(耿祥义)
  2. mybatis-plus排除非表中字段
  3. service nginx start启动nginx出现Failed to start nginx.service:unit not found
  4. html5_canvas初学
  5. jquery remove() empty()
  6. 第三次Sprint-最后冲刺
  7. PHP中 htmlspecialchars,htmlentities, nl2br函数
  8. scanf可以输入负数吗_C语言进行数据的多输入多输出
  9. CCF201912-1 报数
  10. C语言课后习题(21)