[机器学习笔记]Note12--降维
继续是机器学习课程的笔记,本节介绍的是降维方法,这也是非监督学习中的一个问题,主要介绍主要成分分析(Principal Component Analysis,PCA)算法。
降维
动机一:数据压缩
使用降维的一个原因是数据压缩。下面通过几个例子来介绍降维。
第一个例子是将数据从二维降至一维。假设我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果的单位是英尺,另一个仪器测量的结果单位是厘米,我们希望将测量的结果作为机器学习的特征。现在的问题是,两种仪器对同一个东西测量的结果不完全相等(由于误差、精度等),而将两者都作为特征有些重复,因而,我们希望将这个二维的数据降至一维。如下图所示:
具体做法就是,找出一条合适的直线,如上图下方那条直线,然后将所有的数据点都投射到该直线上,然后用z(i)z^{(i)}标识,这样便完成了从二维数据x(i)x^{(i)}向一维数据z(i)z^{(i)}的映射。这样得到的新特征只是原有特征的近似,但好处是将需要的存储、内存占用量减半,而已可以让使用这些数据的算法运行得更快。
第二个例子是将数据从三维降至二维。这个例子的过程与上面类似,是将三维向量投射到一个二维平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。
这样的处理过程可以被用于把任何维度的数据都降到任何想要的维度,如将1000维的特征降至100维。
动机二:数据可视化
在许多机器学习问题中,如果我们能将数据可视化,这有助于我们寻找到一个更好的解决方案,而降维可以帮助做到数据可视化。
一个例子是假设现在有关于许多不同国家的数据,每一个特征向量都有50个特征(如,GDP,人均GDP,平均寿命等),如下图所示。
如果要将这个50维的数据可视化是不可能的,但是使用降维的方法将其降至2维,那就可以将其可视化。如下图所示,用新的特征z1和z2z_1和z_2来表现。
这样的问题就是,降维的算法只负责减少维度,而新特征的意义就必须由我们自己去发现了。对于上述例子,我们根据新的二维特征画出一个二维图,如下图所示,用点z(i)z^{(i)}表示每个国家,那么可能会发现水平轴可能对应的是一个国家的面积或者是GDP,而纵轴计算对应人均GDP或者幸福感等。
主要成分分析(Principal Component Analysis,PCA)
主要成分分析时最常见的降维算法。
在PCA中,如果是将二维数据降至一维,我们要做的就是找到一个方向向量(Vector direction),当我们将所有的数据都投射到该向量上时,我们希望投射平均均方误差可以尽可能地小。方向向量时一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。如下图所示
下面给出PCA问题的一般描述:
- 问题是将n维数据降至k维
目标是找到向量u(1),u(2),…,u(k)u^{(1)},u^{(2)},\ldots,u^{(k)}使得总的投射误差最小
然后是比较PCA和线性回归的,这两种算法是不同的算法。PCA最小化的是投射误差,而线性回归尝试的是最小化预测误差。线性回归的目的是预测结果,而PCA不作任何预测。如下图所示
左图是线性回归的误差,而右图是PCA的误差。
PCA算法
接下来是介绍PCA的具体实现过程。
首先是预处理过程,做的是均值归一化。需要计算出所有特征的均值μj=1m∑mi=1x(i)j\mu_j=\frac{1}{m}\sum_{i=1}^m x_j^{(i)},然后令xj=xj−μjx_j = x_j-\mu_j。如果特征是不同数量级的,还需要将其除以标准差σ2\sigma^2。
接下来就是正式的PCA算法过程了。也就是要计算协方差矩阵(covariance matrix)∑\sum。而协方差矩阵∑=1m∑mi=1(x(i))(x(i))T\sum=\frac{1}{m}\sum_{i=1}^m (x^{(i)})(x^{(i)})^T。
然后就是计算协方差矩阵的特征向量(eigenvectors)。在Octave语言中可以利用**奇异值分解(singular value decomposition,SVD)来求解,[U,S,V] = svd(sigma)
。
对于一个n×nn \times n维度的矩阵,上式中的U是一个具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从n维降至k维,我们只需要从U中选取前K个向量,获得一个n×kn\times k维度的矩阵,这里用UreduceU_{reduce}表示,然后通过如下计算获得要求的新特征向量z(i)z^{(i)}:
z^{(i)}=U_{reduce}^T \times x^{(i)}
其中x是n×1x是n \times 1维的,因此结果是k×1k \times 1维。
注意,这里我们部队偏倚特征进行处理。
在压缩过数据后,我们可以采用如下方法来近似地获得原有的特征:x(i)approx=Ureducez(i)x_{approx}^{(i)}=U_{reduce}z^{(i)}
选择主要成分的数量
PCA需要将n维数据降至k维数据,这里的k也就是PCA需要确定的参数K,也就是主要成分的数量。
主要成分分析是要减少投射的平均均方误差:
\frac{1}{m}\sum_{i=1}^m ||x^{(i)}-x_{approx}^{(i)}||^2
而训练集的方差是1m∑mi=1||x(i)||2\frac{1}{m}\sum_{i=1}^m ||x^{(i)}||^2。
我们希望的是在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的K值。
一般来说,我们希望这个比例,如下所示,是小于1%,即意味着原本数据的偏差有99%都保留下来了。
\frac{\frac{1}{m}\sum_{i=1}^m ||x^{(i)}-x_{approx}^{(i)} ||^2}{\frac{1}{m}\sum_{i=1}^m ||x^{(i)}||^2} \le 0.01
而如果选择保留95%的偏差,便能显著地降低模型中特征的维度了。
所以做法可以是,先令K=1,然后进行PCA,获得Ureduce和zU_{reduce}和z,然后计算比例是否小于1%。如果不是,再令K=2,如此类推,直到找到可以使得比例小于1%的最小K值(原因是各个特征之间通常情况存储某种相关性)。
还有一些更好的方式来选择K,在Octave语言中调用svd函数的时候,我们获得三个参数:[U,S,V]=svd(sigma)
。其中S是一个n×nn\times n的矩阵,只有对角线上有值,其他单元都是0,我们可以使用这个矩阵来计算平均均方误差与训练集方差的比例:
\frac{\frac{1}{m}\sum_{i=1}^m ||x^{(i)}-x_{approx}^{(i)} ||^2}{\frac{1}{m}\sum_{i=1}^m ||x^{(i)}||^2} = 1-\frac{\sum_{i=1}^k S_{ii}}{\sum_{i=1}^m S_{ii}} \le 1\%
也就是:
\frac{\sum_{i=1}^k S_{ii}}{\sum_{i=1}^m S_{ii}} \ge 0.99
应用PCA
假设我们正在针对一张100×100100\times 100像素的图片进行某个计算机视觉的机器学习,即总共有10000个特征。这里可以使用PCA来降维来提高算法的速度。做法如下:
- 第一步是使用PCA将数据压缩至1000个特征;
- 对训练集运行学习算法;
- 在预测的时候,使用第一步学来的UreduceU_{reduce}将测试集中的特征x转换成新的特征向量z,然后再进行预测。
注意:只有在训练集才运行PCA算法,而将训练集中学到的UreduceU_{reduce}应用到交叉验证集和测试集中。
错误使用PCA的情况有:
- 将PCA用于减少过拟合(减少特征的数量)。这样做并不好,不如尝试归一化处理。原因是PCA只是近似地丢弃掉一些特征,它并不考虑与结果变量有关的信息,因此可能丢掉非常重要的特征。而当进行归一化处理时,会考虑到结果变量,不会丢掉重要的数据。
- 默认地将PCA作为学习过程中的一部分。这虽然很多时候有效果,但最好还是从原始特征开始,只在有必要的时候(算法运行太慢或者占用太多内存)才考虑使用PCA。
小结
本节内容介绍了使用降维的两大原因,一个是进行数据压缩,减少内存的使用,提高算法速度,第二个是为了数据可视化,从而找到一个更好的解决问题的方法。
降维方法中最常用的就是PCA算法,所以本节内容主要是介绍PCA算法的基本做法,具体实现过程,以及使用的方法和注意事项。
[机器学习笔记]Note12--降维相关推荐
- 机器学习笔记之降维(一)维数灾难
机器学习笔记之降维--维数灾难 引言 回顾:过拟合 维度灾难 从数值角度观察维数灾难 从几何角度观察维度灾难 示例1 示例2 引言 本节将介绍降维算法,并介绍降维算法的相关背景. 回顾:过拟合 我们在 ...
- 机器学习笔记之降维(二)样本均值与样本方差的矩阵表示
机器学习笔记之降维--样本均值与样本方差的矩阵表示 引言 场景介绍 样本均值与样本方差 样本均值与样本方差的矩阵表示 样本均值的矩阵表达 样本方差的矩阵表达 中心矩阵的性质 引言 上一节介绍了维数灾难 ...
- 机器学习笔记(十)降维和度量学习
10.降维和度量学习 10.1k近邻学习 k近邻(k-NearestNeighbor,简称kNN)学习是一种常用的监督学习方法,其原理是:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练 ...
- [吴恩达机器学习笔记]14降维3-4PCA算法原理
14.降维 觉得有用的话,欢迎一起讨论相互学习~Follow Me 14.3主成分分析原理Proncipal Component Analysis Problem Formulation 主成分分析( ...
- 机器学习笔记之——降维(二)主成分分析(PCA)
目录 主成分分析(PCA) 1. 坐标投影 2. 最近重构性 3. 最大可分性 4. 求解 主成分分析(PCA) 1. 坐标投影 主成分分析(PCA, Principal Component Anal ...
- Python机器学习笔记 使用scikit-learn工具进行PCA降维...
Python机器学习笔记 使用scikit-learn工具进行PCA降维 之前总结过关于PCA的知识:深入学习主成分分析(PCA)算法原理.这里打算再写一篇笔记,总结一下如何使用scikit-lear ...
- Python机器学习笔记 使用scikit-learn工具进行PCA降维
Python机器学习笔记 使用scikit-learn工具进行PCA降维 之前总结过关于PCA的知识:深入学习主成分分析(PCA)算法原理.这里打算再写一篇笔记,总结一下如何使用scikit-lear ...
- Python机器学习笔记:sklearn库的学习
自2007年发布以来,scikit-learn已经成为Python重要的机器学习库了,scikit-learn简称sklearn,支持包括分类,回归,降维和聚类四大机器学习算法.还包括了特征提取,数据 ...
- 机器学习笔记:过拟合和欠拟合
1 过拟合介绍 如果模型设计的太复杂,可能会过拟合 下图的1~5分别代表最高项为1~5次幂的线性回归问题: 当模型太复杂的时候,虽然训练集上我们得到较小的误差,但是在测试集上,误差就奇大无比 复杂模型 ...
- 机器学习笔记:Overview
1)机器学习笔记(1):Introduction 2)机器学习笔记(2):单变量线性回归 3)机器学习笔记(3):线性代数回顾 4)机器学习笔记(4):多变量线性回归 5)机器学习笔记(五):逻辑回归 ...
最新文章
- 亿级流量系统架构之如何设计承载百亿流量的高性能架构【石杉的架构笔记】...
- 博士后工作站来了!智源研究院获得正式授牌
- 智能车竞赛技术报告 | 智能车视觉 - 中南大学 - 中南大学比亚迪午马2021
- 【Python】Python语言学习:面向对象编程,类和对象,封装、继承和多态
- Oracle数据库名,实例名,服务名的区别
- docker 绑定宿主_将WildFly绑定到其他IP地址或多宿主上的所有地址
- C++基础:各种输入方法总结
- Mondrian and OLAP
- 获取指定域名的IP地址
- js实现倒计时的小例子
- 洛谷 P1993 小K的农场 解题报告
- 大学计算机专业分流考试,北京林业大学计算机类(入学一年后分流至计算机科学与技术、数字媒体技术、网络工程、计算机科学与技术(物联网))专业2016年在江苏理科高考录取最低分数线...
- 强大的Android参数模拟器,自由修改手机型号、SDK版本号等信息
- c语言中内存分配方式
- Excel表格中如何换行
- 修复iPhone白苹果
- goldengate mysql to oracle,goldengate mysql to oracle OGG-00146 求助!
- VS 2010 测试功能学习(七) - RnP与Coded UI自动化测试
- C语言动态开辟多维数组空间
- 订单系统设计 —— 订单号设计
热门文章
- oracle 监听加密 tcps,通过oracle wallet配置listener tcps加密
- linux网卡名称乱编,小斗CentOS7.x网卡名称错乱、及网卡启动失败。
- wordpress 怎么获取站点标题
- 【51单片机快速入门指南】4.4.2:Mahony AHRS 九轴姿态融合获取四元数、欧拉角
- MSP430F5529 DriverLib 库函数学习笔记(七)定时器B
- .Net (C#)委托和事件(获取多个返回值)
- Linux下查看文件和文件夹大小的df和du命令
- iSCSI 2-环境搭建一
- [vue] 说说你对provide和inject的理解
- [vue] $nextTick有什么作用?