作者:贾恩东

本文长度为2500字,建议阅读7分钟

这篇文章主要带大家入门PCA,逐渐理解PCA最原始的概念和设计思路,以及简单的实现原理。

主成分分析,即Principle Component Analysis (PCA),是一种传统的统计学方法,被机器学习领域引入后,通常被认为是一种特殊的非监督学习算法,其可以对复杂或多变量的数据做预处理,以减少次要变量,便于进一步使用精简后的主要变量进行数学建模和统计学模型的训练,所以PCA又被称为主变量分析。

朱小明买了五个西瓜,每个西瓜都有重量、颜色、形状、纹路、气味五种属性:

序号

西瓜A

西瓜B

西瓜C

西瓜D

西瓜E

重量

1

3

2

8

8

颜色

1

2

2

8

9

形状

6

7

6

6

7

纹路

3

2

3

9

9

气味

1

2

1

1

1

注:这里的离散属性我们已经做了某种数字化处理,比如颜色数值越小表示越接近浅黄色,颜色数值越大越接近深绿色,形状数值越接近1代表越接近球形等。

朱小明回到家,观察了西瓜们的五种属性,他觉得对于这五个西瓜来说,气味和形状是完全没有必要去关注的,可以直接丢弃不看。为什么?

差异才是信息

对于西瓜的重量属性和形状属性,我们发现这俩种似乎是不同的两种性质。把西瓜们的重量x和形状属性y拿出来画图示意:

我们从数据分布上估计,相比x属性来说,y属性的方差(variance)不大,即所有的西瓜这个属性都不怎么变化。因此比较所有的西瓜时其实不用考虑y这一属性(反正所有西瓜的y属性数值都差不多相同,所以就不用关注了)。

在数据科学和统计应用中,通常需要对含有多个变量的数据进行观测,收集后进行分析然后寻找规律,从而建模分析或者预测。多变量的大数据集固然不错,但是也在一定程度上增加了数据采集的工作量和问题分析和建立模型的复杂性。

因此需要找到一种合理的方法,在减少需要分析的指标(即所谓的降维),以及尽量减少降维带来的信息损失,达到对所收集数据进行全面分析的目的。由于各变量之间存在一定的相关关系,因此可以考虑将关系紧密的变量变成尽可能少的新变量,使这些新变量是两两不相关的,那么就可以用较少的综合指标分别代表存在于各个变量中的各类信息。

考虑更一般的情形

上面举的西瓜的例子过于简单,显然形状和气味的属性差异太小,可以直接舍弃。但更一般的情形是某一些属性的线性组合才会差异太小,如果要降低维度,消减多余的属性,我们必须要找到这种组合。(实际生活中,很多变量中可能存在两种变量线性相关,造成信息冗余,实际上我们可以舍弃其中一种变量,在这里就表现为当存在某两种属性的数值其线性组合接近0时可以舍弃其中一个变量)

以下图为例,有两个属性x,y的样本徘徊在一条直线附近。

我们总是认为属性差异(variance)最大的情况下样本蕴含最丰富的信息,反之亦然。因此,我们会把特征空间里的base(坐标轴,下图中的黑色直线)重新选取并把base的数量由2减少到1,选择让这些点在新base下的信息最大。新base下的新样本就是一条直线上的点(红色的点),他们只有一个属性,一个维度。下图所示,我们总是有两种选择(我们真的只有这两种吗?的确有更多的选择,不过就不是PCA而是其他的降维算法了):

  1. 找到新的base,使得样本点们到base的投影点们在新base下的分布数值方差最大,差异最大即信息最多,

  2. 找到新的base,使得样本点们到base的投影距离平方和最小,都很小那丢弃后损失的信息就少了。

但实际上可以证明:这两种方法是等价的。(先思考一下这是为什么?)

数学推导

数据集记为,若简单假设每个样本具有两个属性,容易知道,所有样本的属性构成了一个均值为的分布,该分布具有自己的均值和方差。但假如我们事先对数据集做了去中心化的预处理,即所有属性都减去了它们的均值,则这里有预处理后的特征的方差应为。

我们这时要寻找一条新的base: 使得所有:在的新base:上的投影后数值分布的方差最大。

这里要注意两点:

1)投影不会改变分布的均值,所以投影后的均值依然为0,

2)因为的模长任意,因此这里可令其为1,即有

综上,要使投影后的变量分布方差

最大,而,因此等价变换后要使得最大,记该最大值为。(事实上,样本的协方差矩阵很像这个矩阵,这个矩阵是半正定的,其特征值均不小于0)

这里把类似协方差矩阵的这一坨记为矩阵,那么此时就变成了。即需要求解矩阵的特征向量。所以的最大值也就是矩阵最大的特征值,而此时的新base也就是最大特征值对应的特征向量。

Finished!

以上就是PCA的最简单版本的算法推导。

一句话概括,要对一批样本进行降维,需要先对所有的属性进行归一化的减均值处理,然后求其协方差矩阵的特征向量,将特征值按从大到小的顺序排列,特征值越大的新基对应的新样本属性就越重要。最后我们就可以按照需要舍弃最后面特征值较小对应的特征向量作为新基下投影的样本属性了。

Not finish! We need to think more!

我们留下了四个疑问:

1.最开始的时候,我们假设样本点中线性组合后的一些属性可能方差就变成0了,那我们就可以扔掉这些属性,但是如果这些属性必须经过非线性组合之后,方差才可能变成0,我们应该怎么发现这种组合并加以选择行的丢弃呢?

比如我们有以下样本点(7.3, 1.6, 8.1) ,(5.2, 9.7, 0.6) ,(6.8,3,8.1) ,(1.7,9.6,5.2) ,(3.7,8.9,5.4),我们可以把这三个维度降低到几维还能保持90%以上的方差呢?

(提示:kernel PCA,答案是可以降低到1维)

2.我们可以用求新基下投影距离平方和最小值的方式推导吗?

3.协方差矩阵为什么会出现?回想一下协方差矩阵在统计学中的含义是什么?

因为方差是一些平方和,所以肯定不是负的,那么轻易可以得到协方差矩阵的特征值一定不为负。那实际用matlab或者python计算的时候为什么还会出现特征值是负数的情况呢?(SVD浮出身影)

4.听小朋友说t-SNE也是一种降维方法,通常用于高维空间到低维空间的可视化分析。那么这里的t-SNE采用的是PCA的方法吗?(不是)

问题留给聪明的读者你来查阅,调研和思考。

 总结

本文主要简单介绍了PCA的原理和思想,但更多相关知识比如计算的稳定性、如何加速计算、遇到庞大的稀疏矩阵如何处理等并未涉及,希望大家能举一反三,积极思考,自学成才。

A word to finish: PCA虽然好,但也不是万能的。

优点:无监督学习,根本不需要样本的标签信息;PCA后所有主成分正交,再无信息冗余之忧;计算简单。

缺点:解释性不佳(比如:PCA后发现西瓜最重要的属性是0.3×颜色+0.7×重量。这是什么属性??);某些特殊情况下方差小的属性未必信息无用,方差最大化未必就一定信息最大。

参考资料:

http://setosa.io/ev/principal-component-analysis/


如您想与我们保持交流探讨、持续获得数据科学领域相关动态,包括大数据技术类、行业前沿应用、讲座论坛活动信息、各种活动福利等内容,敬请扫码加入数据派THU粉丝交流群,红数点恭候各位。

编辑:于腾凯

校对:林亦霖

作者简介

贾恩东,9字清华本科,后于国科大就读博士,现为中国软件博士后。主要研究方向:传统机器学习,传统数字图像处理,深度学习与目标检测,少样本学习,自监督学习等。

数据派研究部介绍

数据派研究部成立于2017年初,以兴趣为核心划分多个组别,各组既遵循研究部整体的知识分享实践项目规划,又各具特色:

算法模型组:积极组队参加kaggle等比赛,原创手把手教系列文章;

调研分析组:通过专访等方式调研大数据的应用,探索数据产品之美;

系统平台组:追踪大数据&人工智能系统平台技术前沿,对话专家;

自然语言处理组:重于实践,积极参加比赛及策划各类文本分析项目;

制造业大数据组:秉工业强国之梦,产学研政结合,挖掘数据价值;

数据可视化组:将信息与艺术融合,探索数据之美,学用可视化讲故事;

网络爬虫组:爬取网络信息,配合其他各组开发创意项目。

点击文末“阅读原文”,报名数据派研究部志愿者,总有一组适合你~

转载须知

如需转载,请在开篇显著位置注明作者和出处(转自:数据派THUID:DatapiTHU),并在文章结尾放置数据派醒目二维码。有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。

未经许可的转载以及改编者,我们将依法追究其法律责任。

点击“阅读原文”加入组织~

原创|一文读懂主成分分析(PCA)相关推荐

  1. 原创 | 一文读懂机器学习中的shapley值方法

    作者:贾恩东本文约2000字,建议阅读9分钟本文为你介绍更公平分配利益权重的一种算法--Shapley值方法. 本篇文章是数据派一文读懂系列的新年第一篇原创,在这里祝贺大家新年学业有新成就,生活有新气 ...

  2. 干货 :一文读懂主成分分析

    文:王佳鑫  审校:陈之炎 本文约6000字,建议阅读10+分钟 本文带你了解PCA的基本数学原理及工作原理. 概述 主成分分析PCA(Principal Component Analysis)是一种 ...

  3. 原创 | 一文读懂模型的可解释性(附代码链接)

    作者:林夕 本文长度为10000字,建议阅读10+分钟 对于信任和管理我们的人工智能"合作伙伴",可解释AI则至关重要. 目录 1.1 可解释的重要性 1.2 可解释性的范围 1. ...

  4. 原创 | 一文读懂K均值(K-Means)聚类算法

    作者:王佳鑫审校:陈之炎本文约5800字,建议阅读10+分钟本文为你介绍经典的K-Means聚类算法. 概述 众所周知,机器学习算法可分为监督学习(Supervised learning)和无监督学习 ...

  5. 原创 | 一文读懂正态分布与贝塔分布

    本文约2300字,建议阅读5分钟 本文通过案例介绍了正态分布和贝塔分布的概念. 正态分布 正态分布,是一种非常常见的连续概率分布,其也叫做常态分布(normal distribution),或者根据其 ...

  6. 原创 | 一文读懂泊松分布,指数分布和伽马分布

    本文约3400字,建议阅读6分钟 本文以简单直白的方式让大家能够理解泊松分布,指数分布和伽马分布的实际含义和作用,并且由此推导其概率密度函数. 在开始之前,我们需要预习一下二项分布. 还是丢硬币的例子 ...

  7. 易基因|一文读懂精准简化基因组甲基化测序(RRBS+oxRRBS)分析怎么做

    大家好,这是专注表观组学十余年,领跑多组学科研服务的易基因. 本期,我们讲讲精准简化基因组甲基化测序(RRBS+oxRRBS)怎么做,从技术原理.建库测序流程.信息分析流程等方面详细介绍. 一.精准简 ...

  8. C_一文读懂推荐系统知识体系-上(概念、结构、算法)

    本文主要阐述: 推荐系统的3个W 推荐系统的结构 推荐引擎算法 浏览后四章的内容请见下篇. 1. 推荐系统的3个W 1.1 是什么(What is it?) 推荐系统就是根据用户的历史行为.社交关系. ...

  9. 一文读懂多元线性回归

    一文读懂多元线性回归 一.什么是线性回归模型 1.1模型 1.2线性 1.3回归 二.如何建立线性回归模型 2.1寻找yyy和xxx 2.2确定模型参数 2.2.1 拟合的角度 什么是拟合 最小二乘法 ...

最新文章

  1. Android面试题目之(9) 幽灵引用
  2. Zabbix的web界面基本操作
  3. 关于UIView的autoresizingMask属性的研究
  4. Boost:加载评估WebSocket服务器的性能测试程序
  5. linux 命令行使用技巧linux 下的文件管理
  6. 在微服务框架Demo.MicroServer中添加SkyWalking+SkyApm-dotnet分布式链路追踪系统
  7. 前端学习(1994)vue之电商管理系统电商系统之通过编程导航跳转到商品导航界面
  8. 神经网络与深度学习——TensorFlow2.0实战(笔记)(二)(Anaconda软件介绍)
  9. Coding Party 邀你出战!飞桨黑客马拉松线下场来啦
  10. 到底什么是“无源物联网”?
  11. Jedis工具类使用及设置
  12. 三星:计划将UTG可折叠面板对外出售
  13. vmclone 问题
  14. EscapeDataString URI 字符串太长
  15. 清翔51单片机开发板及原理图-去年购买的
  16. 应用安全设计规范--模板
  17. GitQ 导读: 为什么 GitHub ?
  18. 本地主机连接阿里云数据库(自建数据库)排雷
  19. 使用ffmpeg将m3u8文件转为mp4
  20. 【C语言语法】表达式与语句的区别与联系

热门文章

  1. 未来的黑科技计算机作文简写,写一篇英文作文。“未来计算机的发展”
  2. Java按钮哪个方法响应_当用户点击按钮时,Java程序采用什么方法来响应?()
  3. 双链表偶数节点求和java_java--删除链表偶数节点
  4. pythonos模块使用方法_Python OS模块常用方法总结
  5. qt获取console输出_怎么在Centos 7 安装 Qt-4.8.6-MySQL 驱动?
  6. Google App Engine 的简易教程(转载)
  7. Spring Cloud 覆写远端的配置属性
  8. NeHe OpenGL第二十八课:贝塞尔曲面
  9. (转)Properties Editor为你解除通过native2ascii进行Unicode转码的烦恼
  10. paper 38 :entropy