从PCA和SVD的关系拾遗
转自:从PCA和SVD的关系拾遗
最近突然看到一个问题,PCA和SVD有什么关系?隐约记得自己照猫画虎实现的时候PCA的时候明明用到了SVD啊,但SVD(奇异值分解)和PCA的(特征值分解)貌似差得相当远,由此钻下去搜集了一些资料,把我的一些收获总结一下,以免以后再忘记。
PCA的简单推导
PCA有两种通俗易懂的解释,1)是最大化投影后数据的方差(让数据更分散);2)是最小化投影造成的损失。这两个思路最后都能推导出同样的结果。
下图应该是对PCA第二种解释展示得最好的一张图片了(ref:svd,pca,relation)
图示的数据都已经去中心化了(中心点为原点),这一步操作可以简单地通过xi=xi−x¯ 来达到,其中x¯是样本的均值,为方便表示,后文的x都是去中心化后的结果。
可以看到PCA所谓的降维操作就是找到一个新的坐标系(旋转的两条直线式垂直的,我们可以用一组标准正交基{uj},j=1,...,n来指示),然后减掉其中一些维度,使误差足够小。
假设我们要找的投影方向是uj (uj是单位向量,即uTjuj=1) ,点xi在该方向上的投影就是(xTiuj)uj,减掉这个维度造成的误差为:
将 1mxxT 记作 S ,假设我们要减去t个维度,则需要最小化
此时使用拉格朗日乘子法使得
最小化上式子,求导有
使其为0则得到
这是标准的特征值的定义, λj 就是特征值, uj 是对应的特征向量,所以对 S 进行特征值分解就可求得解, 将上式带回到原始的J中,可得
所以要使J最小,就去掉变换后维度中最小的t个特征值对应的维度就好了。
现在,我们再回过头看PCA的流程,就会发现一切都对应上了:
- 对数据去中心化
- 计算XXT,注:这里除或不除样本数量M或M−1其实对求出的特征向量没影响
- 对XXT进行特征分解
- 选取特征值最大的几个维度进行数据映射。(去掉较小的维度)
遗留问题
看到这有人要问了,我咋记得标准流程是计算矩阵的协方差矩阵呢?
我们来看协方差矩阵的计算公式:
一开始我们的去中心化步骤其实就是计算了 (x−E[x]) ,然后 S=1mxxT 其实就是协方差矩阵,注意这里取的 1m ,实际操作中,应该是 1m−1 ,才是标准的协方差矩阵, 但这对最后找到的特征向量没有影响,对特征值之间的大小关系也没有影响 。
所以到这一步标准的流程是( 为了实现方便,下面代码中的矩阵X与其实是上面推导中的XT,每一行是一个样本,同时从这里开始的推导使用与代码一致的表示方法 ):
def pca_01(X):covMat = np.cov(X,rowvar = 0)eigVal,eigVec = sp.linalg.eig(covMat)#do reduction with eigVal,eigVec
但因为最后用于变换的矩阵需要是去中心化后的,所以有些地方的实现是:
def pca_02(X):mean_ = np.mean(X, axis=0)X = X - mean_covMat = np.cov(X,rowvar = 0)#实际上是否去中心化对求到的协方差矩阵并无影响,只是方便后面进行降维eigVal,eigVec = sp.linalg.eig(covMat)#do reduction with eigVal,eigVec
使用矩阵乘法的方式:
def pca_03(X):mean_ = np.mean(X, axis=0)X = X - mean_M,N=X.shapeSigma=np.dot(X.transpose(),X)/(M-1)eigVal,eigVec = sp.linalg.eig(Sigma)#do reduction with eigVal,eigVec
这跟SVD有啥关系?
一开始说到隐约记得当时时间PCA的时候用到了SVD,但通过上面的推到我们发现需要的是特征值分解,这又是怎么回事呢?
首先来看SVD的解释:奇异值分解
X=UΣV∗,
其中U是m×m阶酉矩阵;Σ是m×n阶非负实数对角矩阵;而V*,即V的共轭转置,是n×n阶酉矩阵。这样的分解就称作X的奇异值分解
并且:
在矩阵M的奇异值分解中
X=UΣV∗,
1. V的列(columns)组成一套对 X的正交”输入”或”分析”的基向量。这些向量是 XTX的特征向量。
2. U的列(columns)组成一套对 X的正交”输出”的基向量。这些向量是XXT的特征向量。
3. Σ对角线上的元素是奇异值,可视为是在输入与输出间进行的标量的”膨胀控制”。这些是XXT及XTX的特征值的非零平方根,并与U和V的行向量相对应。
我们看到了熟悉的”特征向量”,还是XTX和XXT的,毫无疑问这个的结果能直接用于PCA降维。
上面这几句话都是可以推导出来的,在展开之前我们看两段代码,表示了SVD在PCA中两种不同用法:
def pca_04(X):mean_ = np.mean(X, axis=0)X = X - mean_M,N=X.shapeSigma=np.dot(X.transpose(),X) #这里直接去掉/(M-1)方便和pca_05比较,对求得特征向量无影响U,S,V = sp.linalg.svd(Sigma);eigVal,eigVec = S,U#do reduction with eigVal,eigVec
可以看到在pca_03的基础上我们把sp.linalg.eig改用了sp.linalg.svd,这涉及到:
结论1:协方差矩阵(或XTX)的奇异值分解结果和特征值分解结果一致。
def pca_05(X):mean_ = np.mean(X, axis=0)X = X - mean_U, S, V = sp.linalg.svd(X)eigVal,eigVec = S,V#do reduction with eigVal,eigVec
我们直接使用了去中心化后的SVD分解结果用于PCA降维,也是正确的,因为:
结论2:V的列(columns)组成一套对 X的正交”输入”或”分析”的基向量。这些向量是 XTX的特征向量。
首先我们需要推导出结论2:
根据奇异值分解的定义:
则
Σ 是对角矩阵,U是标准正交基(酉矩阵),V是标准正交基( VVT=I;V=V−1 )
而又有 XTX 是一个对称的半正定矩阵,它可以通过特征值分解为( Λ 是对角化特征值, Q 是特征向量):
可以看到上下两个形式保持了一致,当限定了特征值的顺序后,这样的组合是唯一的,所以 结论2 是成立的: V 是 XTX 的特征向量,奇异值和特征值是平方关系
奇异值和特征值的平方关系这个结论可以通过运行pca_04和pca_05验证:
PCA_04:
eigVal:[ 21.60311815 8.77188185]
eigVec: [[-0.88734696 -0.46110235]
[-0.46110235 0.88734696]]PCA_05:
eigVal:[ 4.64791546 2.96173629]
eigVec: [[ 0.88734696 0.46110235]
[-0.46110235 0.88734696]]
#注意PCA_05结果中特征向量维度的符号,和上面不太一样,但这不影响降维的功能,每一列是一组基
对于结论一:
我们对XTX进行SVD分解(为了加以区分,下标为2):
由于SVD分解的性质中的第二条
- U的列(columns)组成一套对 X的正交”输出”的基向量。这些向量是XXT的特征向量。
所以U2是矩阵XTXXTX的特征向量,而由:
根据矩阵的特征值分解:
所以有:
能得到这样的结果是因为 XTX 本身是对称的半正定矩阵。
用SVD有啥好处?
很多地方对PCA的实现都是使用的SVD,这样做的优点有哪些呢?从这里看到一些解释
一来因为SVD没有计算XTX这一步,而矩阵中一些非常小的数容易在平方中丢失
二来在一些实现中,SVD的速度比特征值分解要快很多,充分地利用了协方差矩阵的性质。
PCA和SVD的应用
PCA是不必多说,一提到降维方法首先想到的就是PCA,关于降维方法后面可能还会找时间整理一些有意思的算法,我们可以看到对这些算法都有很intuitive的解释,搞懂是如何从intuition到公式再到计算步骤,是一个非常有意思的过程。如果只是停留在了解算法思想和流程,然后拿着库用一用,会丢掉很多有意思的东西。
除了常规的PCA,好像还有一些PCA的改进算法(从PRML的目录看起来^_^),等后面有时间研究一下一并奉上(如果有意思)。
SVD其实是众多矩阵分解的一种,除了在PCA上使用,也有用于推荐,在推荐领域的svd算法形式上并不能和标准的奇异值分解对应上,但其思路是相通的,具体可以参考协同过滤算法实现。同时SVD也可以很方便地算出矩阵的伪逆,这在最小二乘中有应用:
总结
PCA有很好的直觉解释,一些可视化也很直观,所以往往忽视了其中的一些细节,深入地了解下来发现了很多有意思的东西,很有收获。笔者水平有限,如果文中有什么错误,还请告知,不甚感谢。
从PCA和SVD的关系拾遗相关推荐
- PCA与SVD的关系
SVD并不要求是方阵,而PCA必须要求是方阵,所以会PCA必须计算协方差矩阵,计算量大,且会出现数值溢出:
- PCA、SVD、ZCA白化理论与实现
简介 在UFLDL中介绍了主成分分析这一块的知识,而且当时学机器学习的时候,老师是将PCA和SVD联系起来将的,同时UFLDL也讲到了使用PCA做数据白化whitening处理,这个词经常在论文里面看 ...
- svd降维 python案例_菜菜的机器学习sklearn实战-----sklearn中的降维算法PCA和SVD
菜菜的机器学习sklearn实战-----sklearn中的降维算法PCA和SVD 概述 从什么叫维度说开来 简单讲,shape中返回了几个数字就是几维. 一张表最多就是一维 当一个数组中存在2张3行 ...
- sklearn学习 5.降维算法PCA和SVD
一.概述 **1.从什么叫"维度"说开来 ** 对于数组和Series来说,维度就是功能shape返回的结果,shape中返回了几个数字,就是几维.索引以外的数 据,不分行列的叫一 ...
- 《菜菜的机器学习sklearn课堂》降维算法PCA和SVD
降维算法PCA和SVD 什么是维度? sklearn中的降维算法 PCA 与 SVD 降维究竟是怎样实现的? PCA重要参数 n_components 迷你案例:高维数据的可视化 附录 PCA参数列表 ...
- 机器学习-Sklearn-04(降维算法PCA和SVD)
机器学习-Sklearn-04(降维算法PCA和SVD) 学习04 1 概述 1.1 从什么叫"维度"说开来 对于数组和Series来说,维度就是功能shape返回的结果,shap ...
- PCA和SVD傻傻分不清楚?
c以前学习PCA和SVD的时候都是分开学的,也只是记住了求解方法,对于原理理解一直处于懵圈状态,查看了别人的解释,也尝试自己总结一下.如果哪里理解错了,那就gg了 PCA(Principal Co ...
- 主成分分析PCA 奇异值分解SVD
一 特征值和特征向量 想了解PCA和SVD,首先要了解的一个概念就是特征值和特征向量. A是矩阵,x是向量.是数.如果满足公式,则说是矩阵A的一个特征值,非零向量x为矩阵A的属于特征值的 ...
- 降维算法PCA和SVD
文章目录 前言 PCA和SVD 1. 降维算法的实现 1.1 降维的步骤表格 2. PCA,SVD简单概述 3. 重要参数 n_components 3.1 迷你案例:高维数据的可视化 3.1.1 调 ...
- sklearn实战之降维算法PCA与SVD
sklearn实战系列: (1) sklearn实战之决策树 (2) sklearn实战之随机森林 (3) sklearn实战之数据预处理与特征工程 (4) sklearn实战之降维算法PCA与SVD ...
最新文章
- HTML5和CSS3-张晨光-专题视频课程
- java 同类调用方法_JAVA中同类中方法的调用问题?
- Proxy Pattern using C# (转载)
- android动态居中布局,Android动态添加布局的两种方式
- shellcraft新姿势
- c++-add two numbers 两个链表相加
- 打破传统内容生产 易车玩转综艺原创
- 博文翻译系列——如何入门数据科学 without spending a penny
- Java HashMap原理
- WIN10桌面上的“此电脑”图标不见了怎么办?
- wifi 流量劫持_无线网被流量劫持了怎么弄,WiFi流量被劫持如何处理
- 铁塔基站三相有功电能无线计量仪表外置互感器-安科瑞 顾月
- 手机科学计算机xy怎么用,如何使用科学计算器
- word excel如何用印章生成器软件在线制作电子印章 电子公章图片
- 1T空间只是噱头而已! 网盘容量大战背后的技术秘密
- **time_limited.sof文件
- 006-Sencha Cmd概论
- Mac 不能将项目xxx移到废纸篓,因为它已打开
- ODrive应用 #8 故障排除
- Android studio连接(逍遥)模拟器
热门文章
- 各种强大的资源搜索引擎及搜索各大网盘资源的方法
- 品味FastDFS~目录
- Gartner报告:2010年全球安全软件市场增长11%
- MySQL不能插入中文字段的解决办法
- Ubuntu 14.04 执行指定用户的命令
- 兼容pc端和移动端的轮播图插件 swiper.js
- 【剑指Offer】15顺时针打印矩阵
- 安装debian 9.1后,中文环境下将home目录下文件夹改为对应的英文
- 【bzoj1520】[POI2006]Szk-Schools 费用流
- VC++ 禁止WebBrowser网页跳转时发出的声音和禁止网页上的文字被选择