密度聚类:OPTICS算法详解
很多人不理解OPTICS算法绘出的图该怎么理解。为什么波谷就算一类,有个波峰又算另一类了,本篇在第三部分的第2、3节详细讲这个是什么判别分类的。
本篇会添加一些个人思考过程,可能有不严谨的地方,希望在评论区讨论指正。
另外,学习本篇,需要有DBSCAN的基础。如果没基础可以先看看这篇《详解DBSCAN聚类》
一、OPTICS重要的新定义
在DBSCAN的基础上,给定 M i n P t s MinPts MinPts 和 e p s eps eps 后,OPTICS又提出了下面几个新定义:
(1)核心距离coreDist:当前核心点 p p p 的邻域中,与核心点 p p p 距离升序排第 M i n P t s − 1 MinPts - 1 MinPts−1位的样本点,与 p p p 的距离作为 p p p 的核心距离(-1是因为邻域包含了p本身)
这里 N ( p ) N(p) N(p)指的是p的邻域点数。
个人理解:因为OPTICS一开始会设定 e p s = i n f eps=inf eps=inf,所以所有点都是核心点,所以 c o r e D i s t ( p ) coreDist(p) coreDist(p)的计算也不需要区分条件 N ( p ) < M i n P t s N(p) < MinPts N(p)<MinPts,除非你数据集的总样本量 < M i n P t s MinPts MinPts
(2)可达距离reach_dist:当前核心点 p p p 下,其他样本点 i i i 到 p p p 的可达距离为 m a x ( i 与 p 间的距离 , p 的核心距离 ) max(i与p间的距离, p的核心距离) max(i与p间的距离,p的核心距离)
个人理解:同(1)
两种距离的举例如下图所示,图片来自知乎@马东什么,我觉得非常的直观
二、算法流程
为了更好理解一点,我将通过接近python的伪代码+中文描述来写流程
1、初始化:
给定邻域最小样本量MinPts, 数据集D
# OPTICS的半径初始化为inf
eps = inf
# 判断样本是否已处理的列表,初始化为0,表示未处理过,若处理过则为1
processed_list = np.full(shape=(len(D),), fill_value=0)
# 距离矩阵,distMat[i,j]表示样本i与样本j之间的距离
distMat = np.zeros((len(D), len(D)))
# 可达距离的列表,reach_dist[i]表示样本i到当前核心点的可达距离
# 初始为inf而非上面定义所说的undefined是因为好用一个公式计算
# 即 reach_dist[i] = \
# min(max(distMat[i,p],core_dist[p]), 旧reach_dist[i])
reach_dist = np.full(shape=(len(D),), fill_value=inf)
# 结果序列,这里的order并不是指可达距离的升序(虽然有关系),是指处理的顺序
order_list = []
2、算法流程(经典)
计算样本点两两距离,填值到distMat
计算每个样本点(不止核心点)的核心距离temp_core_dist,方法是取distMat每一列升序第MinPts的值
计算temp_core_dist中核心距离 < eps的样本,作为核心点集合core_points,及其核心距离core_dist
相信你已经发现了,因为初始eps是inf,所以其实每个样本点都是核心点,所以core_dist = temp_core_dist
# 对所有未处理的核心点进行遍历
# 注意,实际上这个循环只会循环一次
for p in core_points:# 若p已处理则跳过,实际上不会触发,因为第一次选择的p必未处理过if processed_list[p] == 1:continue# 获得p周围eps内的邻居点,因eps=inf,实际上就是数据集其他所有样本点Neighbors_points = getNeighbors(p, eps)# 标记当前核心点p已处理并放入结果队列processed_list[p] = 1ordered_list.append(p)# 若p的邻居点数量 > MinPts, 实际上这是必然成立的if Neighbors_points.num > MinPts:# 字典形式的有序队列,用于升序排列样本点的可达距离# 键值对是{样本索引i:i到当前核心点p的可达距离}Seeds = {}# 更新Seeds中各点到当前核心点的p的可达距离,并升序排序Seeds# update(Neighbors_points, p, Seeds, core_dist)############## 第一次update ####################### 为更直观,不另写一个函数update,而是将update过程直接写在下方# 遍历核心点p的未处理的邻居for neigbor in Neighbor_points:if processed_list[neighbor] == 1:continue# 计算p的邻居点neighbor与点p的新可达距离,并取新旧间的最小值reach_dist[neighbor] = \min(max(distMat[neighbor,p],core_dist[p]), reach_dist[neighbor])# 在有序队列中添加or更新键值对,此处的update是字典内置方法Seeds.update({neighbor:reach_dist[neighbor]})############## 第一次update结束 ####################### 再按Seeds顺序遍历# 提醒一下,Seeds现在是p的未处理过的邻居,也即数据集中未处理过的样本while len(Seeds)!=0:# 取离p最近的那个点,即Seeds中按可达距离升序排列后的第0个样本q = sorted(Seeds.items(), key=operator.itemgetter(1))[0][0] del Seeds[q]# 标记当前核心点q已处理并放入结果队列processed_list[q] = 1ordered_list.append(q)Neighbors_of_q = getNeighbors(q, eps)# 若q的邻居点数量 > MinPts, 实际上这是必然成立的if Neighbor_of_q.num > MinPts:# 更新Seeds中各点到当前核心点q的可达距离,并升序排序Seeds# update(Neighbor_of_q, q, Seeds, core_dist)############ 第二次update ############## 为更直观,不另写一个函数update,而是将update过程直接写在下方# 遍历核心点q的未处理的邻居for neigbor in Neighbor_of_q:if processed_list[neighbor] == 1:continue# 计算q的邻居点neighbor与点q的新可达距离,并取新旧间的最小值reach_dist[neighbor] = \min(max(distMat[neighbor,q],core_dist[q]), reach_dist[neighbor])# 在有序队列中添加or更新键值对,此处的update是字典内置方法Seeds.update({neighbor:reach_dist[neighbor]})############# 第二次update结束 ##########
好了,上面是参考很多博文,他们的代码,可以看出很多判断语句是必然满足的,循环也是只会运行一次,很多冗余,所以我按照自己的理解精简了代码,如下。
3、算法流程(精简)
计算样本点两两距离,填值到distMat
全体样本点作为核心点集合core_points
计算每个样本点的核心距离core_dist,方法是取distMat每一列升序第MinPts的值
# 随机选择一个当作当前核心点p
p = core_points[0]
# 获得p周围eps内的邻居点,因eps=inf,实际上就是数据集其他所有样本点
Neighbors_points = getNeighbors(p, eps)
# 标记当前核心点p已处理并放入结果队列
processed_list[p] = 1
ordered_list.append(p)# 字典形式的有序队列,用于升序排列样本点的可达距离
# 键值对是{样本索引i:i到当前核心点p的可达距离}
Seeds = {}
# 更新Seeds中各点到当前核心点的p的可达距离,并升序排序Seeds
# update(Neighbors_points, p, Seeds, core_dist)
############## 第一次update ######################
# 为更直观,不另写一个函数update,而是将update过程直接写在下方
# 遍历核心点p的未处理的邻居
for neigbor in Neighbor_points:if processed_list[neighbor] == 1:continue# 计算p的邻居点neighbor与点p的新可达距离,并取新旧间的最小值reach_dist[neighbor] = \min(max(distMat[neighbor,p],core_dist[p]), reach_dist[neighbor])# 在有序队列中添加or更新键值对,此处的update是字典内置方法Seeds.update({neighbor:reach_dist[neighbor]})
############## 第一次update结束 ####################### 再按Seeds顺序遍历
# 提醒一下,Seeds现在是p的未处理过的邻居,也即数据集中未处理过的样本
while len(Seeds)!=0:# 取离p最近的那个点,即Seeds中按可达距离升序排列后的第0个样本q = sorted(Seeds.items(), key=operator.itemgetter(1))[0][0] del Seeds[q]# 标记当前核心点q已处理并放入结果队列processed_list[q] = 1ordered_list.append(q)Neighbors_of_q = getNeighbors(q, eps)# 更新Seeds中各点到当前核心点q的可达距离,并升序排序Seeds# update(Neighbor_of_q, q, Seeds, core_dist)############ 第二次update ############## 为更直观,不另写一个函数update,而是将update过程直接写在下方# 遍历核心点q的未处理的邻居for neigbor in Neighbor_of_q:if processed_list[neighbor] == 1:continue# 计算q的邻居点neighbor与点q的新可达距离,并取新旧间的最小值reach_dist[neighbor] = \min(max(distMat[neighbor,q],core_dist[q]), reach_dist[neighbor])# 在有序队列中添加or更新键值对,此处的update是字典内置方法Seeds.update({neighbor:reach_dist[neighbor]})############# 第二次update结束 ##########
最后,给出简洁的流程,如下。
4、算法流程(最精简)
计算样本点两两距离,填值到 d i s t M a t distMat distMat
全体样本点作为核心点集合 c o r e _ p o i n t s core\_points core_points
计算每个样本点的核心距离 c o r e _ d i s t core\_dist core_dist,方法是取 d i s t M a t distMat distMat每一列升序第 M i n P t s MinPts MinPts的值
数据集中随机选择一个点作为核心点 p p p
计算数据集中其他点 i i i到点 p p p的可达距离 r e a c h _ d i s t [ i ] reach\_dist[i] reach_dist[i],以键值对{ i i i : r e a c h _ d i s t [ i ] reach\_dist[i] reach_dist[i]}存在字典 S e e d s Seeds Seeds中
OK,点 p p p已经用过,不再参与后续任何计算
当 S e e d s Seeds Seeds不空时,循环:
(1) S e e d s Seeds Seeds按值升序排列,取第0个即离上一个核心点最近的点 q q q,作为当前核心点
(2)计算数据集中其他未处理的点 i i i到点 q q q的可达距离 r e a c h _ d i s t [ i ] reach\_dist[i] reach_dist[i],取新旧中的较小值,更新到 S e e d s Seeds Seeds中
(3)OK,点 q q q已经用过,从 S e e d s Seeds Seeds中删除,且不再参与后续任何计算
三、一个简单的例子,讲述算法流程
1、例子来源:《机器学习笔记(十一)聚类算法OPTICS原理和实践》
记录了每一步处理的核心对象(核心点),并及时在 p r o c e s s e d _ l i s t processed\_list processed_list标记为已处理
可以看到 S e e d s Seeds Seeds的更新、 S e e d s Seeds Seeds的排序、选新的核心对象计算可达距离 是交替进行的
2、重点来了!如何理解这张 r e a c h _ d i s t — p o i n t s reach\_dist—points reach_dist—points图并实现分类
假设 e p s = 3.8 eps=3.8 eps=3.8
(1)首先,样本点0,值为 i n f inf inf不用绘制出来,因为 r e a c h _ d i s t reach\_dist reach_dist 的原始定义其实应该是全 u n d e f i n e d undefined undefined 而不是 i n f inf inf,未定义的值当然不用绘制了
(2)然后,样本点1,显然离样本点0的可达距离 < eps,那么归到与样本点0一类是没有问题的
(3)然后,样本点3,显然离样本点1的可达距离 < eps,那么归到与样本点0一类是没有问题的。
如果你是这样想就错了!
只是就本例的数据集来说,确实可以看出3到1更近。
从更广义的样本来说,样本点3离样本0和1谁更近是不知道的,即 r e a c h _ d i s t ( 3 , 0 ) reach\_dist(3,0) reach_dist(3,0)与 r e a c h _ d i s t ( 3 , 1 ) reach\_dist(3,1) reach_dist(3,1)谁小不知道,可以举例为:
样本点1到核心点0的 r e a c h _ d i s t ( 1 , 0 ) = 3.16 reach\_dist(1,0) = 3.16 reach_dist(1,0)=3.16 <
样本点3到核心点0的 r e a c h _ d i s t ( 3 , 0 ) = 3.3 reach\_dist(3,0) = 3.3 reach_dist(3,0)=3.3 <
样本点3到核心点1的 r e a c h _ d i s t ( 3 , 1 ) = 3.5 reach\_dist(3,1) = 3.5 reach_dist(3,1)=3.5
这样的话就是样本点3到核心点0的距离更近,也满足这样的 o r d e r e d _ l i s t ordered\_list ordered_list 顺序0->1->3
所以:我们可以发现这样的一个规律:
1与前面的集合{0}中的某点可达距离最近为3.16
3与前面的集合{0,1}中的某点可达距离最近为1.41
6与前面的集合{0,1,3}中的某点可达距离最近为1.41
5与前面的集合{0,1,3,6}中的某点可达距离最近为3.61
(4)对于样本点2,为什么就要归入第二类呢?因为
2与前面的集合{0,1,3,6,5}中的某点可达距离最近为4.12 > eps,所以分在第一类已经不合适了,又因为核心距离 c o r e _ d i s t [ 2 ] = 1.0 < e p s core\_dist[2]=1.0<eps core_dist[2]=1.0<eps,所以归入第二类
(5)对于样本点4,可达距离小于eps,为什么也要归入第二类呢?因为
4与前面的集合{0,1,3,6,5,2}中的某点可达距离最近为1,
但是显然,样本点4不能与前面{0,1,3,6,5}的可达距离,必然比样本点2与前面的可达距离还要远(否则在 o r d e r _ l i s t order\_list order_list 中样本点4应该排在2前面)
4与前面的集合中的可达距离最近为1,还得是靠样本点2才能这么小。所以样本点4与归入2所在的第二类。
3、总结一下根据 r e a c h _ d i s t — p o i n t s reach\_dist—points reach_dist—points图如何定义簇
(可惜上面的例子没有噪声点样本。)
注意此时eps已不再是inf,而是依据图自定义的。
从结果队列 o r d e r _ l i s t order\_list order_list 按顺序取出样本点,直到结果队列为空:
若该点的可达距离 <= eps,则属于当前聚类簇
否则:若该点的核心距离 > eps,为噪声点
若该点的核心距离 < eps,为新的聚类簇
四、numpy实现的代码
参考:武大博士的知乎——《聚类算法之OPTICS算法》
其他参考链接:
三、3、定义簇部分 ——《dbscan和optics(完结撒花~)》
二、4、算法流程(最精简)部分—— ——曾依灵, 许洪波, 白硕. 改进的OPTICS算法及其在文本聚类中的应用[C]// 全国信息检索与内容安全学术会议. 2007:51-55.
密度聚类:OPTICS算法详解相关推荐
- 密度聚类OPTICS算法
密度聚类OPTICS算法 DBSCAN有一些缺点,如:参数的设定,比如说阈值和半径 这些参数对结果很敏感,还有就是该算法是全局密度的,假若数据集的密度变化很大时,可能识别不出某些簇. 核心距离:假定 ...
- 图解机器学习算法(13) | 聚类算法详解(机器学习通关指南·完结)
作者:韩信子@ShowMeAI 教程地址:https://www.showmeai.tech/tutorials/34 本文地址:https://www.showmeai.tech/article-d ...
- 聚类 python_python中实现k-means聚类算法详解
算法优缺点: 优点:容易实现 缺点:可能收敛到局部最小值,在大规模数据集上收敛较慢 使用数据类型:数值型数据 算法思想 k-means算法实际上就是通过计算不同样本间的距离来判断他们的相近关系的,相近 ...
- kmeans聚类算法matlab_KMeans聚类算法详解
"如果把人工智能比作一块大蛋糕,监督学习只是上面的一层奶油". 日常生活中,从人脸识别.语音识别到搜索引擎,我们看到越来越多人工智能领域的算法逐渐走向落地.尽管全球每日新增数据量以 ...
- 谱聚类算法详解及代码实现
谱聚类算法详解及代码实现 文章目录 谱聚类算法详解及代码实现 参考 关于谱聚类介绍 谱聚类概述 谱聚类前置知识 无向权重图 邻接矩阵 度矩阵 拉普拉斯矩阵 相似度矩阵 确定目标函数 初始化目标函数(最 ...
- Twitter-Snowflake,64位自增ID算法详解
Twitter-Snowflake,64位自增ID算法详解 from: http://www.lanindex.com/twitter-snowflake%EF%BC%8C64%E4%BD%8D%E8 ...
- 离线强化学习(Offline RL)系列3: (算法篇) IQL(Implicit Q-learning)算法详解与实现
[更新记录] 论文信息:Ilya Kostrikov, Ashvin Nair, Sergey Levine: "Offline Reinforcement Learning with Im ...
- GrabCut算法详解:从GMM模型说起
GrabCut算法详解:从GMM模型说起 最近正在学习CG,争取有时间就看点论文写写代码. GrabCut在OpenCv里面是有内置函数的,不过我还是用C++纯手工实现了一边原汁原味的论文,githu ...
- 谱聚类(Spectral Clustering)详解
原文地址为: 谱聚类(Spectral Clustering)详解 谱聚类(Spectral Clustering)详解 谱聚类(Spectral Clustering, SC)是一种基于图论的聚类方 ...
最新文章
- HDU1042(高精度模拟乘法)
- python 多功能下载网页
- 最近公司需要监测网络PING写了一个脚本
- oracle存储过程实验报告总结,Oracle存储过程总结(一、基本应用)
- 常用JavaScript 收集
- Spring Cloud 设置Feign的日志记录级别
- php 字符串hash比较,分析两个 url 查询字符串和 hash 的区别
- [容易]合并排序数组
- STM32+DWM1000开发uwb测距系列教程之一:官方例程简介
- 51单片机定时器TMOD与TCON、SCON
- 飞秋在同一局域网内刷新不到好友
- 细数那些深度定制的PC版 安卓系统
- SQL数据库面试题以及答案(50例题优化版-增加图片):你必知必会的SQL语句练习
- Nuvoton emWin HMI Solution
- Linux集中日志服务器rsyslog
- Kali Linux渗透测试之端口扫描(一)——UDP、TCP、隐蔽端口扫描、全连接端口扫描
- 【嵌入式物联网】NodeMCU开发板引脚介绍和主要技术参数
- atx和matx机箱_电脑机箱ATX,MATX...都有啥区别?机箱是如何分类的?
- ubuntu中通过logiops设置罗技鼠标按键
- 第三十届ACM/ICPC 世界总决赛题目解析