数据降维简介

降维就是一种对高维度特征数据预处理方法。降维是将高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。
降维具有如下一些优点:

  1. 减少所需的存储空间。
  2. 加快计算速度(例如在机器学习算法中),更少的维数意味着更少的计算,并且更少的维数可以允许使用不适合大量维数的算法。
  3. 去除冗余特征,例如在以平方米和平方公里在存储地形尺寸方面,两者一起用没有意义(数据收集有缺陷)。
  4. 将数据的维数降低到2D或3D可以允许我们绘制和可视化它,可能观察模式,给我们提供直观感受。
  5. 太多的特征或太复杂的模型可以导致过拟合。
  6. 较简单的模型在小数据集上有更强的鲁棒性

数据降维方法

主要的方法是线性映射和非线性映射方法两大类。

  • 线性映射方法的代表方法有:PCA(Principal Component Analysis),LDA(Discriminant Analysis)
  • 非线性映射方法的代表方法有:核方法(KernelPCA)、流形学习(ISOMap,LLE)
  • 非负矩阵分解(NMF)是在矩阵中所有元素均为非负数的约束条件之下的矩阵分解方法

PCA降维

PCA(Principal Components Analysis)即主成分分析,是一种图像处理中使用最广泛的数据降维算法。它不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。

  • PCA方法通过消除数据的相关性,找到一个空间,使得各个类别的数据在该空间上能够很好地分离。在下图中,有一些离散的二维分布点,其中棕色表示一类集合,黄色表示另一类集合,假设这两个类别可以用特征X和特征Y进行描述,由图可知,在X轴和Y轴上这两个类别的投影是重叠的,表明这些点的两个特征X和Y没有表现出突出的识别性。但是两个类的投影在Z轴上区分度较大,显示出很好的识别性。PCA就是这样的一个工具,它可以产生非常好的降维效果。

  • PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。PCA的工作就是从原始的空间中顺序地找一组相互正交的坐标轴,新的坐标轴的选择与数据本身是密切相关的。其中,第一个新坐标轴选择是原始数据中方差最大的方向,第二个新坐标轴选取是与第一个坐标轴正交的平面中使得方差最大的,第三个轴是与第1,2个轴正交的平面中方差最大的。依次类推,可以得到n个这样的坐标轴。通过这种方式获得的新的坐标轴,我们发现,大部分方差都包含在前面k个坐标轴中,后面的坐标轴所含的方差几乎为0。于是,我们可以忽略余下的坐标轴,只保留前面k个含有绝大部分方差的坐标轴。事实上,这相当于只保留包含绝大部分方差的维度特征,而忽略包含方差几乎为0的特征维度,实现对数据特征的降维处理。

操作方法:
通过计算数据矩阵的协方差矩阵,然后得到协方差矩阵的特征值特征向量,选择特征值最大(即方差最大)的k个特征所对应的特征向量组成的矩阵。这样就可以将数据矩阵转换到新的空间当中,实现数据特征的降维。

由于得到协方差矩阵的特征值特征向量有两种方法:特征值分解协方差矩阵、奇异值分解协方差矩阵,所以PCA算法有两种实现方法:基于特征值分解协方差矩阵实现PCA算法、基于SVD分解协方差矩阵实现PCA算法。

PCA降维原理

协方差和散度矩阵

样本均值:
x ˉ = 1 n ∑ i = 1 n x i \bar x = \frac{1}{n}\sum_{i=1}^nx_i xˉ=n1i=1nxi

样本方差:
S 2 = 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) 2 S^2 = \frac{1}{n-1}\sum_{i=1}^{n}(x_i - \bar x)^2 S2=n11i=1n(xixˉ)2

样本X和样本Y的协方差:
C o n v ( X , Y ) = E [ ( X − E ( X ) ) ( Y − E ( Y ) ) ] Conv(X,Y) = E[(X - E(X))(Y - E(Y))] Conv(X,Y)=E[(XE(X))(YE(Y))]
= 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) ( y i − y ˉ ) =\frac{1}{n-1}\sum_{i=1}^n(x_i - \bar x)(y_i - \bar y) =n11i=1n(xixˉ)(yiyˉ)

由上面的公式,我们可以得到以下结论:

  • 方差的计算公式是针对一维特征,即针对同一特征不同样本的取值来进行计算得到;而协方差则必须要求至少满足二维特征;方差是协方差的特殊情况。
  • 方差和协方差的除数是n-1,这是为了得到方差和协方差的无偏估计。
  • 协方差为正时,说明X和Y是正相关关系;协方差为负时,说明X和Y是负相关关系;协方差为0时,说明X和Y是相互独立。Cov(X,X)就是X的方差。
  • 当样本是n维数据时,它们的协方差实际上是协方差矩阵(对称方阵)。例如,对于3维数据(x,y,z).
  • 对于数据X的散度矩阵为Scatter matrix。其实协方差矩阵和散度矩阵关系密切,散度矩阵就是协方差矩阵乘以(总数据量n-1)。因此它们的特征值和特征向量是一样的。这里值得注意的是,散度矩阵是SVD奇异值分解的一步,因此PCA和SVD是有很大联系。

特征值分解矩阵原理

特征值与特征向量, 其中,λ是特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。
A v = λ v Av = \lambda v Av=λv

特征值分解矩阵, 对于矩阵A,有一组特征向量v,将这组向量进行正交化单位化,就能得到一组正交单位向量。特征值分解,就是将矩阵A分解为如下式, 其中,P是矩阵A的特征向量组成的矩阵, ∧ \wedge 则是一个对角阵,对角线上的元素就是特征值。
A = P ∧ P − 1 A = P \wedge P^{-1} A=PP1

SVD分解矩阵原理

是一种因子分解运算,将一个矩阵分解为3个矩阵的乘积:

  • 3个矩阵: U, Σ 和 V,其中U和V是正交矩阵,分别称为左奇异值、右奇异值,Σ 为奇异值

  • 奇异值分解是一个能适用于任意矩阵的一种分解的方法,对于任意矩阵A总是存在一个奇异值分解:
    A ≈ U Σ V T A \approx UΣV^T AUΣVT

  • full_matrices=True时,表示U和V是全矩阵, 假设A是一个 m ∗ n m*n mn的矩阵,那么得到的U是一个 m ∗ m m*m mm的方阵,U里面的正交向量被称为左奇异向量。Σ是一个 m ∗ n m*n mn的矩阵,Σ除了对角线其它元素都为0,对角线上的元素称为奇异值。

  • full_matrices=False时,表示U和V不是全矩阵, 假设A是一个 m ∗ n m*n mn的矩阵,那么得到的U是一个 m ∗ k m*k mk的方阵,U里面的正交向量被称为左奇异向量。Σ是一个 k ∗ k k*k kk的矩阵,Σ除了对角线其它元素都为0,对角线上的元素称为奇异值。

PCA算法两种实现方式

基于特征值分解协方差矩阵实现PCA算法

  • 去平均值(即去中心化),即每一位特征减去各自的平均值
  • 计算协方差矩阵
  • 用特征值分解方法求协方差矩阵的特征值与特征向量
  • 对特征值从大到小排序,选择其中最大的k个。然后将其对应的k个特征向量分别作为行向量组成特征向量矩阵ev
  • 将数据转换到k个特征向量构建的新空间中,即X_pca= X ⋅ e v X \cdot ev Xev

基于SVD分解协方差矩阵实现PCA算法

  • 去平均值(即去中心化),即每一位特征减去各自的平均值
  • 通过SVD对第一步结果进行奇异值分解
  • 特征值默认从大到小排列,选择k个作为降维特征,对左奇异值矩阵进行切片即可(U[:,:k])
  • 归一化处理(无偏差、偏差)
  • 无偏估计
  • S = 1 n ∑ i = 1 n ( x i − μ ) 2 S = \sqrt{\frac{1}{n}\sum\limits_{i = 1}^n(x_i - \mu)^2} S=n1i=1n(xiμ)2 总体标准差
  • S = 1 n − 1 ∑ i = 1 n ( x i − X ‾ ) 2 S = \sqrt{\frac{1}{n-1}\sum\limits_{i = 1}^n(x_i - \overline{X})^2} S=n11i=1n(xiX)2 样本标准差

LDA线性判别

LDA线性判别分析也是一种经典的降维方法,LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。

给定训练集样例,设法将样例投影到一条直线上,使得同类样例的投影尽可能接近异类样例的投影点尽可能原理;在对新的样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。

LDA算法实现方式:

  • 计算数据总的散度矩阵 S t S_t St
  • 计算数据类内散度矩阵 S w S_w Sw
  • 计算类间散度矩阵 S b S_b Sb
  • 特征值和特征向量计算
  • 筛选特征向量,进行矩阵运算返回输出结果

NMF非负矩阵分解

NMF的基本思想可以简单描述为:对于任意给定的一个非负矩阵A,NMF算法能够寻找到一个非负矩阵U和一个非负矩阵V,使得满足 ,从而将一个非负的矩阵分解为左右两个非负矩阵的乘积。

解前后可理解为:原始矩阵V的列向量是对左矩阵W中所有列向量的加权和,而权重系数就是右矩阵对应列向量的元素,故称W为基矩阵,H为系数矩阵

原矩阵V中的一列向量可以解释为对左矩阵W中所有列向量(称为基向量)的加权和,而权重系数为右矩阵H中对应列向量中的元素。这种基于基向量组合的表示形式具有很直观的语义解释,它反映了人类思维中“局部构成整体”的概念。
虽然NMF是一个很厉害的算法,但其实质是加权和,我们可以在原理上等效为基本的线性方程。

LLE局部线性嵌入降维算法

所谓LLE(局部线性嵌入)即”Locally Linear Embedding”的降维算法,在处理所谓流形降维的时候,效果比PCA要好很多。首先,所谓流形,我们脑海里最直观的印象就是Swiss roll,在吃它的时候喜欢把它整个摊开成一张饼再吃,其实这个过程就实现了对瑞士卷的降维操作,即从三维降到了两维。降维前,我们看到相邻的卷层之间看着距离很近,但其实摊开成饼状后才发现其实距离很远,所以如果不进行降维操作,而是直接根据近邻原则去判断相似性其实是不准确的。

和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征(保持原有拓扑结构),由于LLE在降维时保持了样本的局部特征,它广泛的用于图像识别,高维数据可视化等领域。LLE是非线性降维技术,可以说是流形学习方法最经典的算法之一。很多后续的流形学习、降维方法都与LLE有密切联系。

  # 降维,高维数据降成低维的数据# manifold 流形from sklearn.manifold import LocallyLinearEmbeddingfrom sklearn.decomposition import PCAfrom sklearn import datasetsimport matplotlib.pyplot as plt%matplotlib inlinefrom mpl_toolkits.mplot3d.axes3d import Axes3DX,t = datasets.make_swiss_roll(n_samples=1500,noise=0.05,random_state= 1024)fig = plt.figure(figsize=(12,9))# axes3D = Axes3D(fig)axes3D = fig.add_subplot(projection = '3d')axes3D.view_init(7,-80)axes3D.scatter(X[:,0],X[:,1],X[:,2],c = t)pca = PCA(n_components= 2)X_pca = pca.fit_transform(X)plt.scatter(X_pca[:,0],X_pca[:,1],c = t)lle = LocallyLinearEmbedding(n_neighbors=10,n_components=2)lle.fit(X)X_lle = lle.transform(X)plt.scatter(X_lle[:,0],X_lle[:,1],c = t)

10 降维算法(PCA降维/LDA分类/NMF非负矩阵)相关推荐

  1. ML之DR:基于鸢尾花(Iris)数据集利用多种降维算法(PCA/TSVD/LDA/TSNE)实现数据降维并进行二维和三维动态可视化应用案例

    ML之DR:基于鸢尾花(Iris)数据集利用多种降维算法(PCA/TSVD/LDA/TSNE)实现数据降维并进行二维和三维动态可视化应用案例 目录 基于鸢尾花(Iris)数据集利用多种降维算法(PCA ...

  2. python 降维lda算法的使用_【Python】降维算法PCA和LDA的实现及总结

    以Iris数据集为例,分别实现PCA和LDA降维 算法原理 主成分分析(Principal Component Analysis,PCA)是一种常用的线性降维数据分析方法,其实质是在能尽可能好的代表原 ...

  3. sklearn实战之降维算法PCA与SVD

    sklearn实战系列: (1) sklearn实战之决策树 (2) sklearn实战之随机森林 (3) sklearn实战之数据预处理与特征工程 (4) sklearn实战之降维算法PCA与SVD ...

  4. svd降维 python案例_菜菜的机器学习sklearn实战-----sklearn中的降维算法PCA和SVD

    菜菜的机器学习sklearn实战-----sklearn中的降维算法PCA和SVD 概述 从什么叫维度说开来 简单讲,shape中返回了几个数字就是几维. 一张表最多就是一维 当一个数组中存在2张3行 ...

  5. 《菜菜的机器学习sklearn课堂》降维算法PCA和SVD

    降维算法PCA和SVD 什么是维度? sklearn中的降维算法 PCA 与 SVD 降维究竟是怎样实现的? PCA重要参数 n_components 迷你案例:高维数据的可视化 附录 PCA参数列表 ...

  6. 机器学习-Sklearn-04(降维算法PCA和SVD)

    机器学习-Sklearn-04(降维算法PCA和SVD) 学习04 1 概述 1.1 从什么叫"维度"说开来 对于数组和Series来说,维度就是功能shape返回的结果,shap ...

  7. 机器学习算法-PCA降维技术

    机器学习算法-PCA降维 一.引言 在实际的数据分析问题中我们遇到的问题通常有较高维数的特征,在进行实际的数据分析的时候,我们并不会将所有的特征都用于算法的训练,而是挑选出我们认为可能对目标有影响的特 ...

  8. 降维算法PCA的应用----高维数据的可视化

    文章目录 序言 废话不多说看代码 导入相关模块 数据提取 降维 降维后数据信息展示 新的特征矩阵 可视化 关于X_dim2[y==i, 0]的解释 总结 序言 当我们拿到一堆数据的时候,几乎不可能通过 ...

  9. 12- 降维算法 (PCA降维/LDA分类/NMF) (数据处理)

    数据降维就是一种对高维度特征数据预处理方法.降维是将高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的. PCA算法有两种实现方法: 基于特征值分解协方差矩阵实 ...

最新文章

  1. thinkphp执行流程
  2. 每日一皮:这一定是“宅”的极致了...
  3. 赴美工作常识(Part 4 - 面试)
  4. ora-00054:resource busy and acquire with nowait specified解决方法
  5. jquery学习之-查找父元素方法parent() parents() closest()的区别
  6. potainer 日志_日志系统落地:制定日志规范
  7. flowable 多实例动态添加人
  8. linux java 部署 生产环境
  9. 百度网盘自动备份php,服务器自动备份脚本上传至百度云存储
  10. vscode 翻译_前端新手 VSCode 入门指南
  11. wincc怎么做数据库_wincc 数据库
  12. mysql创建关系模式命令_Mysql数据库介绍及mysql显示命令
  13. CSS样式切换技巧 - 动态更换网页色彩皮肤
  14. id nfc模拟_模拟门禁卡: NFC卡模拟 v3.1.5 清爽版
  15. 使用 Proteus 仿真单片机
  16. TBtools:基因家族分析简单流程
  17. 利用外观模式Java投资理财_Java设计模式之外观模式和装饰器模式的设计(精选)...
  18. 8051单片机Proteus仿真与开发实例-TLC2543(A/D)转换驱动仿真
  19. 前端VSCode修改Git远程仓库地址链接
  20. 【图像加密】基于混沌系统进行灰度图像加密附Matlab代码

热门文章

  1. 使用 OpenCV 构建文档扫描仪
  2. 备战第十二届蓝桥杯电子类《EDA设计与开发》国赛
  3. 远指针,近指针,巨指针
  4. 测试必会之 Linux 三剑客之 grep
  5. L2-020 功夫传人 (25分)(双解法 完整思路+极短代码)
  6. 修改HTTPS 添加白名单
  7. 极客爱情 2.1 | 从你的编程世界路过
  8. php 没有后缀名下载,javascript - 没有后缀名的链接?
  9. 寻求区块链研究者老铁的帮助
  10. 《缠中说禅108课》84:本 ID 理论一些必须注意的问题