最小平方误差理论

     

     假设有这样的二维样本点(红色点),回顾我们前面探讨的是求一条直线,使得样本点投影到直线上的点的方差最大。本质是求直线,那么度量直线求的好不好,不仅仅只有方差最大化的方法。再回想我们最开始学习的线性回归等,目的也是求一个线性函数使得直线能够最佳拟合样本点,那么我们能不能认为最佳的直线就是回归后的直线呢?回归时我们的最小二乘法度量的是样本点到直线的坐标轴距离。比如这个问题中,特征是x,类标签是y。回归时最小二乘法度量的是距离d。如果使用回归方法来度量最佳直线,那么就是直接在原始样本上做回归了,跟特征选择就没什么关系了。

     因此,我们打算选用另外一种评价直线好坏的方法,使用点到直线的距离d’来度量。

     现在有n个样本点,每个样本点为m维(这节内容中使用的符号与上面的不太一致,需要重新理解符号的意义)。将样本点在直线上的投影记为,那么我们就是要最小化

     

     这个公式称作最小平方误差(Least Squared Error)。

     而确定一条直线,一般只需要确定一个点,并且确定方向即可。

     第一步确定点:

     假设要在空间中找一点来代表这n个样本点,“代表”这个词不是量化的,因此要量化的话,我们就是要找一个m维的点,使得

     

     最小。其中是平方错误评价函数(squared-error criterion function),假设m为n个样本点的均值:

     

     那么平方错误可以写作:

     

     后项与无关,看做常量,而,因此最小化时,

      

     是样本点均值。

     第二步确定方向:

     我们从拉出要求的直线(这条直线要过点m),假设直线的方向是单位向量e。那么直线上任意一点,比如就可以用点m和e来表示

      

     其中到点m的距离。

     我们重新定义最小平方误差:

     

     这里的k只是相当于i就是最小平方误差函数,其中的未知参数是和e。

     实际上是求的最小值。首先将上式展开:

     

     我们首先固定e,将其看做是常量,,然后对进行求导,得

     

     这个结果意思是说,如果知道了e,那么将与e做内积,就可以知道了在e上的投影离m的长度距离,不过这个结果不用求都知道。

     然后是固定,对e求偏导数,我们先将公式(8)代入,得 

     

     其中 与协方差矩阵类似,只是缺少个分母n-1,我们称之为散列矩阵(scatter matrix)。

     然后可以对e求偏导数,但是e需要首先满足,引入拉格朗日乘子,来使最大(最小),令

     

     求偏导

     

     这里存在对向量求导数的技巧,方法这里不多做介绍。可以去看一些关于矩阵微积分的资料,这里求导时可以将看作是,将看做是

     导数等于0时,得

     

     两边除以n-1就变成了,对协方差矩阵求特征值向量了。

     从不同的思路出发,最后得到同一个结果,对协方差矩阵求特征向量,求得后特征向量上就成为了新的坐标,如下图:

     

     这时候点都聚集在新的坐标轴周围,因为我们使用的最小平方误差的意义就在此。

4. PCA理论意义

     PCA将n个特征降维到k个,可以用来进行数据压缩,如果100维的向量最后可以用10维来表示,那么压缩率为90%。同样图像处理领域的KL变换使用PCA做图像压缩。但PCA要保证降维后,还要保证数据的特性损失最小。再看回顾一下PCA的效果。经过PCA处理后,二维数据投影到一维上可以有以下几种情况:

     

     我们认为左图好,一方面是投影后方差最大,一方面是点到直线的距离平方和最小,而且直线过样本点的中心点。为什么右边的投影效果比较差?直觉是因为坐标轴之间相关,以至于去掉一个坐标轴,就会使得坐标点无法被单独一个坐标轴确定。

     PCA得到的k个坐标轴实际上是k个特征向量,由于协方差矩阵对称,因此k个特征向量正交。看下面的计算过程。

     假设我们还是用来表示样例,m个样例,n个特征。特征向量为e,表示第i个特征向量的第1维。那么原始样本特征方程可以用下面式子来表示:

     前面两个矩阵乘积就是协方差矩阵(除以m后),原始的样本矩阵A是第二个矩阵m*n。

     

     上式可以简写为

     我们最后得到的投影结果是,E是k个特征向量组成的矩阵,展开如下:

     

     得到的新的样例矩阵就是m个样例到k个特征向量的投影,也是这k个特征向量的线性组合。e之间是正交的。从矩阵乘法中可以看出,PCA所做的变换是将原始样本点(n维),投影到k个正交的坐标系中去,丢弃其他维度的信息。举个例子,假设宇宙是n维的(霍金说是11维的),我们得到银河系中每个星星的坐标(相对于银河系中心的n维向量),然而我们想用二维坐标去逼近这些样本点,假设算出来的协方差矩阵的特征向量分别是图中的水平和竖直方向,那么我们建议以银河系中心为原点的x和y坐标轴,所有的星星都投影到x和y上,得到下面的图片。然而我们丢弃了每个星星离我们的远近距离等信息。

     

5. 总结与讨论

     PCA技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。

     PCA技术的一个很大的优点是,它是完全无参数限制的。在PCA的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。 
但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。

     

     图表 4:黑色点表示采样数据,排列成转盘的形状。 
     容易想象,该数据的主元是或是旋转角

     如图表 4中的例子,PCA找出的主元将是。但是这显然不是最优和最简化的主元。之间存在着非线性的关系。根据先验的知识可知旋转角是最优的主元(类比极坐标)。则在这种情况下,PCA就会失效。但是,如果加入先验的知识,对数据进行某种划归,就可以将数据转化为以为线性的空间中。这类根据先验知识对数据预先进行非线性转换的方法就成为kernel-PCA,它扩展了PCA能够处理的问题的范围,又可以结合一些先验约束,是比较流行的方法。

     有时数据的分布并不是满足高斯分布。如图表 5所示,在非高斯分布的情况下,PCA方法得出的主元可能并不是最优的。在寻找主元时不能将方差作为衡量重要性的标准。要根据数据的分布情况选择合适的描述完全分布的变量,然后根据概率分布式

     

     来计算两个向量上数据分布的相关性。等价的,保持主元间的正交假设,寻找的主元同样要使。这一类方法被称为独立主元分解(ICA)。

     

     图表 5:数据的分布并不满足高斯分布,呈明显的十字星状。 
     这种情况下,方差最大的方向并不是最优主元方向。

     另外PCA还可以用于预测矩阵中缺失的元素。

PCA--主成分分析(Principal components analysis)-最小平方误差解释相关推荐

  1. PCA(主成分分析-principal components analysis)学习笔记以及源代码实战讲解

    PCA(主成分分析-principal components analysis)学习笔记以及源代码实战讲解 文章目录 PCA(主成分分析-principal components analysis)学 ...

  2. PCA 主成分分析Principal components analysis

    问题 1. 比如拿到一个汽车的样本,里面既有以"千米/每小时"度量的最大速度特征,也有"英里/小时"的最大速度特征,显然这两个特征有一个多余. 2. 拿到一个数 ...

  3. OpenCV3.3中主成分分析(Principal Components Analysis, PCA)接口简介及使用

    OpenCV3.3中给出了主成分分析(Principal Components Analysis, PCA)的实现,即cv::PCA类,类的声明在include/opencv2/core.hpp文件中 ...

  4. 主成分分析(Principal components analysis)-最大方差解释(转)

    在这一篇之前的内容是<Factor Analysis>,由于非常理论,打算学完整个课程后再写.在写这篇之前,我阅读了PCA.SVD和LDA.这几个模型相近,却都有自己的特点.本篇打算先介绍 ...

  5. 主成分分析(Principal components analysis)-最大方差解释

    在这一篇之前的内容是<Factor Analysis>,由于非常理论,打算学完整个课程后再写.在写这篇之前,我阅读了PCA.SVD和LDA.这几个模型相近,却都有自己的特点.本篇打算先介绍 ...

  6. PCA--主成分分析(Principal components analysis)-最大方差解释

    1. 问题      真实的训练数据总是存在各种各样的问题: 1. 比如拿到一个汽车的样本,里面既有以"千米/每小时"度量的最大速度特征,也有"英里/小时"的最 ...

  7. A tutorial on Principal Components Analysis | 主成分分析(PCA)教程

    A tutorial on Principal Components Analysis 原著:Lindsay I Smith, A tutorial on Principal Components A ...

  8. 感受PCA之美(Principal components analysis overview and application)

    写在前面:        前两周刚好翻到自己的毕业论文,看到之前做过的关于PCA点云法向量估计的推导.发现有些概念已经有些模糊不清了,正好遇到要进行组内分享,于是又重新查找资料对PCA再做了一次探索. ...

  9. A tutorial on Principal Components Analysis - 主成分分析(PCA)教程

    A tutorial on Principal Components Analysis 原著:Lindsay I Smith, A tutorial on Principal Components A ...

最新文章

  1. mattermost
  2. 窗外传来嬉闹声,我默默关上窗
  3. 【pytorch学习】四种钩子方法(register_forward_hook等)的用法和注意点
  4. 【MCtalk直播】全面复盘直播答题,深度剖析产品架构的难点与坑
  5. Percona XtraDB Cluster(PXC) Mysql 集群
  6. 运算放大器基本公式_运算放大器 - 产生的背景和解决的问题
  7. html三列布局源码,HTML三列布局 - 黄柳淞的个人页面 - OSCHINA - 中文开源技术交流社区...
  8. 漫话:应用程序被拖慢?罪魁祸首竟然是Log4j!
  9. (转载)C语言右移运算符的问题(特别当与取反运算符一起时)
  10. C语言primcount素数计数,C语言与汇编的嵌入式编程:求100以内素数
  11. python for mac下载_Python for Mac
  12. [渝粤教育] 中国地质大学 现代控制理论 复习题 (2)
  13. linux数组删除数据,如何从shell数组中删除一个元素
  14. java 不安全操作_Java新手求助:怎么会出现使用了未经检查或不安全的操作。
  15. 程序猿加班到深夜,你经历过没?
  16. itunes卸载工具_iTunes卸载麻烦
  17. 搭建物联网服务器基于nodejs
  18. UnRAR.dll解压rar文件
  19. 自动清理内存linux,linux 过滤内存使用率并于计划任务结合来自动清理内存缓存...
  20. 淘宝商品详情API接口(商品价格接口,商品属性接口)

热门文章

  1. 【51CTO学院三周年】写给自己的51cto
  2. Qunee for HTML5 在电力方面的应用
  3. 年末重磅 | 12月Unity 2D新功能发布会现已开放报名!
  4. STM32输入捕获模式设置并用DMA接收数据
  5. 5 HttpHandler
  6. ASP.NET常用的26个优化性能方法
  7. 利用增强限制条件来求解问题
  8. 里约奥运会开幕了,一起观看“VR直播”约么?
  9. Scalable IO in Java
  10. 非系统表空间损坏,rman备份恢复