目录

PCA算法是如何实现的?

1、对原始数据零均值化(中心化)

2、求协方差矩阵

3、对协方差矩阵求特征向量和特征值

评价模型的好坏,K值的确定

PCA算法的优缺点:

优点:

缺点:

PCA算法的实现(python)


特征提取的方法:PCA,主要目的是为了排除信息量小的特征,减少计算量。

PCA算法是如何实现的?

简单来说,就是将数据从原始的空间中转换到新的特征空间中,例如原始的空间是三维的(x,y,z),x,y,z分别是原始空间的三个基,我们可以通过某种方法,用新的坐标系(a,b,c)来表示原始的数据,那么a,b,c就是新的基,它们组成新的特征空间。在新的特征空间中,可能所有的数据在c上的投影都接近于0,即可以忽略,那么我们就可以直接用(a,b)来表示数据,这样数据就从三维的(x,y,z)降到了二维的(a,b)。

问题是如何求出新的基(a,b,c)?

一般步骤是这样的:

1、对原始数据零均值化(中心化)

中心化即是指变量减去它的均值,使均值为0。其实就是一个平移的过程,平移后使得所有数据的中心是(0,0)。

只有中心化数据之后,计算得到的方向才能比较好的概括原来的数据。

2、求协方差矩阵

我们对于一组数据,如果它在某一坐标轴上的方差越大,说明坐标点越分散,该属性能够比较好的反映源数据。所以在进行降维的时候,主要目的是找到一个超平面,它能使得数据点的分布方差呈最大,这样数据表现在新的坐标轴上时候已经足够分散了。

PCA算法的优化目标就是:降维后同一维度的方差最大;不同维度之间的相关性为0。

协方差就是一种用来度量两个随机变量关系的统计量。同一元素的协方差就表示该元素的方差,不同元素之间的协方差就表示他们之间的相关性。

当涉及到多个维度时,就要用到协方差矩阵。

协方差衡量了两属性之间的关系:

  • 当协方差大于0时,表示两属性正相关;
  • 当协方差小于0时,表示两属性负相关;
  • 当协方差等于0时,表示两属性不相关;

协方差矩阵的特点:

  • 协方差矩阵计算的是不同维度之间的协方差而不是不同样本之间的。
  • 样本矩阵的每行是一个样本,每列为一个维度,所以我们要按列计算均值。
  • 协方差矩阵的对角线就是各个维度上的方差。

特别的,如果做了中心化,则协方差矩阵为:

,其中m是样本个数,Z是原始矩阵,D是协方差矩阵。

3、对协方差矩阵求特征向量和特征值

对于协方差矩阵A,其特征值 计算方法为:

将求出的特征值按照从大到小的顺序排序,选择其中最大的K个,然后将其对应的K个特征向量分别作为列向量组成特征向量矩阵W,将数据集投影到选取的特征向量上,这样就得到了我们需要的已经降维的数据集。

评价模型的好坏,K值的确定

通过特征值的计算我们可以得到主成分所占的百分比,用来衡量模型的好坏。

对于前K个特征值所保留下的信息量计算方法如下:

 PCA算法的优缺点:

优点:

  • 完全无参数限制的,最后的结果只与数据有关,,与用户是独立的。
  • 可以简化模型或是对数据进行压缩,同时最大程度的保持了原有数据的信息。
  • 各主成分之间正交,可消除原始数据成分间对的影响。
  • 计算方法简单,易于在计算机上实现。

缺点:

  • 效率不高
  • 贡献率小的主成分往往可能含有对样本差异的重要信息。

PCA算法的实现(python)

import numpy as np
class PCA():def __init__(self,n_components):self.n_components = n_components  #降维的维度数def fit_transform(self,X):self.n_features_ = X.shape[1]  #数组的列数# 求协方差矩阵X = X - X.mean(axis=0)  #计算每一列的均值self.covariance = np.dot(X.T,X)/X.shape[0]  # np.dot 矩阵乘法  shape[0]数组的行数print("协方差矩阵为:\n",self.covariance)# 求协方差矩阵的特征向量和特征值eig_vals,eig_vectors = np.linalg.eig(self.covariance) #求特征值和特征向量的接口print("协方差矩阵的特征值是:\n",eig_vals)print("协方差矩阵的特征向量是:\n", eig_vectors)# 获得降序排列特征值的序号idx = np.argsort(-eig_vals)  # argsort()函数是将x中的元素从小到大排列,提取其对应的index(索引),然后输出print("特征值从大到小排序的序列号是:\n",idx)self.n_components_ = eig_vectors[:,idx[:self.n_components]]  #降维矩阵print("降维矩阵为:\n",self.n_components_)return np.dot(X,self.n_components_)pca = PCA(n_components=2)
X = np.array([[-1,2,66,-1],[-2,6,58,-1],[-3,8,45,-2],[1,9,36,1],[2,10,62,1],[3,5,83,2]])
newX = pca.fit_transform(X)
print("降维后的数据是:\n",newX)  #输出降维后的数据

输出结果:

可以看到输出结果中降维矩阵取得是前两个大的特征值所对应的特征向量,输出后的降维数据也如同我们设置的一样,降成了2维。

协方差矩阵的特征向量是:
 [[ 0.06761155  0.60143206  0.56775502  0.55799856]
 [-0.09934165  0.68922828 -0.01302825 -0.71758336]
 [ 0.99207082  0.01304165 -0.00945517 -0.1246435 ]
 [ 0.03681576  0.40382394 -0.82304016  0.39771311]]
特征值从大到小排序的序列号是:
 [0 1 3 2]
降维矩阵为:
 [[ 0.06761155  0.60143206]
 [-0.09934165  0.68922828]
 [ 0.99207082  0.01304165]
 [ 0.03681576  0.40382394]]
降维后的数据是:
 [[  7.96504337  -4.12166867]
 [ -0.43650137  -2.07052079]
 [-13.63653266  -1.86686164]
 [-22.28361821   2.32219188]
 [  3.47849303   3.95193502]
 [ 24.91311585   1.78492421]]

PCA算法的原理以及代码实现相关推荐

  1. 视觉SLAM开源算法ORB-SLAM3 原理与代码解析

    来源:深蓝学院,文稿整理者:何常鑫,审核&修改:刘国庆 本文总结于上交感知与导航研究所科研助理--刘国庆关于[视觉SLAM开源算法ORB-SLAM3 原理与代码解析]的公开课. ORB-SLA ...

  2. 【编程实践】Raft 算法的原理 go代码实例

    文章目录 Raft 算法的原理 & go代码实例 Raft 算法的原理 使用 Go 语言实现的简单 Raft 算法示例 Raft 算法的原理 & go代码实例 Raft 算法的原理 R ...

  3. ICCV2017跟踪算法BACF原理及代码解析

    文章和代码下载地址: Galoogahi H K, Fagg A, Lucey S. Learning Background-Aware Correlation Filters for Visual ...

  4. TPAMI2015跟踪算法KCF原理及代码解析

    文章和代码下载地址: http://www.robots.ox.ac.uk/~joao/circulant/ 一.基础公式的由来 相关滤波跟踪器可以表示为最小化的岭回归问题: 表示期望相应,表示正则系 ...

  5. 岭回归算法的原理和代码实战

    岭回归算法的原理和代码实战 前言 学过吴恩达老师的机器学习入门课程都应该知道,在逻辑回归那一讲,吴老师提到了使用正则化来防止逻辑回归模型过拟合.而岭回归在这里的作用是一样的,同样也是防止模型过拟合.这 ...

  6. PCA算法的原理C++ Eigen库实现(附源码下载)

    PCA的目的:  pca算法,也叫主成分分析法,能够对一个多样本的多维特征向量构成的矩阵进行分析,分析主成分并去除维度之间的相关性,使线性相关的向量组变成线性无关的向量组.  并且可以对样本进行降维, ...

  7. PCA降维工作原理及代码案例实现

    PCA降维工作原理 PCA利用了协方差矩阵的特征值分解.过程分为四个步骤: (1)创建数据集的协方差矩阵 协方差:用来度量两个随机变量关系的统计量 (2)保留协方差矩阵的特征值 (3)保留前K个特征值 ...

  8. CVPR2018跟踪算法STRCF原理及代码解析

    文章和代码下载地址: STRCF: Feng Li, Cheng Tian, Wangmeng Zuo, Lei Zhang, Ming-Hsuan Yang. "Learning Spat ...

  9. 几种风控算法的原理和代码实现

    一.基算法 1.决策树(Decision Tree) (1)原理:决策树根据样本数据集的数据特征对数据集进行划分,直到针对所有特征都划分过,或者划分的数据子集的所有数据的类别标签相同. (2)代码实现 ...

最新文章

  1. Java改进的冒泡排序ImprovedBubbleSort
  2. MySQL之练习题5
  3. B端产品经理需要着重锻炼自己这些能力
  4. ReactNative 问题集合
  5. (90)FPGA比较器设计
  6. 6410 android 4.4.2,365备用「永久地址0365.tv」飞凌嵌入式开发板飞凌i.MX6开发板 Android 系统编译...
  7. mysql 5.1 1067,mysql服务1067错误多种解决方案汇总
  8. Linux检测内存泄露的脚本
  9. 如何快速激活数据恢复软件
  10. 史上最详细的Maven安装教程以及Maven和eclipse集成
  11. 海思麒麟要敢于叫板高通骁龙
  12. 基于JSP小型超市管理系统
  13. 项目管理知识领域--十大知识领域
  14. 计算机课安全管理制度,微机室安全管理制度.doc
  15. XJTUSE专业课与实验指南(已经开源)
  16. 什么是CRM系统,它如何支持客户营销管理?
  17. Microsoft PlayReady DRM及其工作原理
  18. 我的java学习之路之Mybatis
  19. C#实现压缩与解压缩方案
  20. 计算机php开发技术,基于PHP技术的计算机基础考试系统的开发

热门文章

  1. Ubuntu22 04右上角网络图标消失
  2. iNFTnews | “幻核”停售数字藏品,腾讯元宇宙又将如何发展?
  3. 免费的足浴软件好用吗
  4. np.diff二维数组中使用append和prepend,
  5. iOS恢复QQ音乐等播放器中断
  6. 瑞虎迎春,开源新年礼包天天送,立即打卡集好礼!
  7. mysql无逗号注入
  8. Tomcat不能运行tomcat9w.exe的解决方案
  9. JDBC之 java - mysql 各个版本 jar包 驱动
  10. GCC编译忽略编译告警