Laplacian Eigenmaps

继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps。其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,因此解决问题的思路是不一样的。这些降维算法的思想都很简单,却在有些方面很有效。这些方法事实上是后面一些新的算法的思路来源。

Laplacian Eigenmaps[1] 看问题的角度和LLE有些相似,也是用局部的角度去构建数据之间的关系。

它的直观思想是希望相互间有关系的点(在图中相连的点)在降维后的空间中尽可能的靠近。Laplacian Eigenmaps可以反映出数据内在的流形结构。

Laplacian Eigenmaps也通过构建相似关系图(对应的矩阵为)来重构数据流形的局部结构特征。Laplacian Eigenmaps算法的主要思想是,如果两个数据实例i和j很相似,那么i和j在降维后目标子空间中应该尽量接近。设数据实例的数目为n,目标子空间的维度为m。定义大小的矩阵,其中每一个行向量是数据实例i在目标m维子空间中的向量表示,Laplacian Eigenmaps要优化的目标函数如下

定义对角矩阵,对角线上位置元素等于矩阵的第i行之和,经过线性代数变换,上述优化问题可以用矩阵向量形式表示如下:

其中矩阵是图拉普拉斯矩阵。限制条件保证优化问题有解,并且保证映射后的数据点不会被“压缩”到一个小于m维的子空间中。使得公式最小化的Y的列向量是以下广义特征值问题的m个最小非0特征值(包括重根)对应的特征向量:

使用时算法具体步骤为:

步骤1:构建图

使用某一种方法来将所有的点构建成一个图,例如使用KNN算法,将每个点最近的K个点连上边。K是一个预先设定的值

步骤2:确定权重

确定点与点之间的权重大小,例如选用热核函数来确定,如果点i和点j相连,那么它们关系的权重设定为

另外一种可选的简化设定是如果点i,j相连,否则

步骤3:特征映射

计算拉普拉斯矩阵L的特征向量与特征值:

其中D是对角矩阵,满足

使用最小的m个非零特征值对应的特征向量作为降维后的结果输出

前面提到过,Laplacian Eigenmap具有区分数据点的特性,可以从下面的例子看出:

图1 Laplacian Eigenmap实验结果

见图1所示,左边的图表示有两类数据点(数据是图片),中间图表示采用Laplacian Eigenmap降维后每个数据点在二维空间中的位置,右边的图表示采用PCA并取前两个主要方向投影后的结果,可以清楚地看到,在此分类问题上,Laplacian Eigenmap的结果明显优于PCA。

图2 roll数据的降维

图2说明的是,高维数据(图中3D)也有可能是具有低维的内在属性的(图中roll实际上是2D的),但是这个低维不是原来坐标表示,例如如果要保持局部关系,蓝色和下面黄色是完全不相关的,但是如果只用任何2D或者3D的距离来描述都是不准确的。

下面三个图是Laplacian Eigenmap在不同参数下的展开结果(降维到2D),可以看到,似乎是要把整个带子拉平了。于是蓝色和黄色差的比较远。

Reference

[1] Belkin, M., Niyogi, P. Laplacian eigenmaps and spectral techniques for embedding and clustering. Advances in neural information processing systems. 2002, 1585-592.

Laplacian Eigenmaps 拉普拉斯特征映射相关推荐

  1. 机器学习降维算法四:Laplacian Eigenmaps 拉普拉斯特征映射

    继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps. 其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,因此解决问题的思 ...

  2. Laplacian eigenmap 拉普拉斯特征映射

    下面是实验室大牛师兄自己写的一段总结,主要内容是Laplacian Eigenmap中的核心推导过程. 有空还是多点向这位师兄请教,每次都会捡到不少金子. Reference : <Laplac ...

  3. 拉普拉斯特征映射(Laplacian Eigenmaps)

    1.介绍 拉普拉斯特征映射(Laplacian Eigenmaps)是一种不太常见的降维算法,它看问题的角度和常见的降维算法不太相同,是从局部的角度去构建数据之间的关系.也许这样讲有些抽象,具体来讲, ...

  4. 图嵌入(拉普拉斯特征映射Laplacian Eigenmaps)

    图嵌入(Graph embedding)的意义 Graph广泛存在于真实世界的多种场景中,即节点和边的集合.比如社交网络中人与人之间的联系,生物中蛋白质相互作用以及通信网络中的IP地址之间的通信等等. ...

  5. 拉普拉斯分布_理解拉普拉斯特征映射中的优化问题的约束条件

    引言:在学习拉普拉斯特征映射(Laplacian Eigenmaps, LE)的过程中,发现大多数参考资料仅列出了其中的最优化问题,然后直接过渡到特征值问题,对于该优化问题,特别是其中的约束条件解释的 ...

  6. 深入理解拉普拉斯特征映射

    目录 1. 一些定义 2. 矩阵的迹求导 3. LE 3.1 目标函数 3.2 约束条件 3.3 优化 3.4 广义特征值问题 3.5 结果 拉普拉斯特征映射(Laplacian Eigenmaps, ...

  7. 拉普拉斯特征映射(Laplacian Eigenmaps, LE)

    主要思想 LE将 D D D维特征 X = [ x 1 , x 2 , ⋯ , x N ] ∈ R D × N \mathbf{X}=[\mathbf{x}_1, \mathbf{x}_2, \cdo ...

  8. 四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps

    四大机器学习降维算法:PCA.LDA.LLE.Laplacian Eigenmaps 引言 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中.降维的本质是学习 ...

  9. 【流行学习】拉普拉斯映射(Laplacian Eigenmaps)

    一.前言 拉普拉斯特征映射是一种基于图的降维算法,它希望在原空间中相互间有相似关系的点,在降维后的空间中尽可能的靠近,从而在降维后仍能保持原有的数据结构信息. 二.主要步骤 拉普拉斯特征映射通过构建邻 ...

最新文章

  1. umi3 如何管理model_django admin 管理工具
  2. MySQL 中的myisam内部临时表
  3. Jquery的事件操作和文档操作
  4. Python教程:Python如何实现穷举搜索?
  5. 别小看不起眼的电阻,里面大有学问!
  6. IE的documentMode属性
  7. java vector_Java Vector sureCapacity()方法与示例
  8. 从零学习perl语言--perl学习笔记(2)--初识变量,if,while等函数的使用
  9. 英特尔Bridge技术加持下 Windows 11 PC也能运行手机应用
  10. 小米9 Pro 5G评测:史上最低价5G手机
  11. echarts box
  12. L1-067 洛希极限 (10 分)-PAT 团体程序设计天梯赛 GPLT
  13. 生物信息学资料1,常用软件,酶切位点分析
  14. MSF(Metaspolit)复现MS12-020蓝屏漏洞
  15. 全新版大学英语综合教程第二册学习笔记(原文及全文翻译)——1 - Learning, Chinese-Style(中国式的学习风格)
  16. andorid简单计算器java源码_Android开发实现的简单计算器功能【附完整demo源码下载】...
  17. 武汉大学计算机在职,武汉大学计算机技术工程硕士专业在职研究生 学位论文工作开展步骤概述...
  18. 方正飞鸿:工作流在OA系统中的重要性
  19. Day4—自制操作系统
  20. UCOS 杂项 笔记

热门文章

  1. 防止MDI子窗体多次实例化的代码
  2. Ubuntu12.04下arm交叉编译环境的建立
  3. vmware-tools安装指南
  4. WINCE6.0+S3C2443的启动过程---eboot6
  5. html引入外部css_CSS 三种基础选择器
  6. 关于网络安全几个问题的整理
  7. Linux LB 集群知识、如何用 LVS 方式实现 LB 集群?
  8. linux数据流重定向
  9. windows下qt5 kinect 2.0开发与环境配置
  10. android 官方DrawerLayout的介绍和使用