本文转自知乎大牛。
从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。
矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。
我们通常求特征值和特征向量即为求出该矩阵能使哪些向量(当然是特征向量)只发生拉伸,使其发生拉伸的程度如何(特征值大小)。这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(power),并根据所产生的每个特征向量(一般研究特征值最大的那几个)进行分类讨论与研究。

更新与2015.12.02 今天无意中看到了这篇介绍,感觉讲的很清晰,特与大家分享!
连接:http://jingyan.baidu.com/article/3065b3b68c6bb6becff8a488.html
大学中都学过矩阵,是不是矩阵感觉很抽象,晦涩难懂,和生活实际挂不上边,其中矩阵有一个叫特征向量的东西,只要学过矩阵的,都会求它,但是他是做什么的,书本上却没说,只是说相当有用,但是在何处用,大家只能说 I do not know ,这里给大家说明下,特征向量的几何意义,让大家一目了然

工具/原料


记得带着脑子哦
方法/步骤
如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:

这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:

其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。首先,要明确的是,一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。比如说下面的一个矩阵:

它其实对应的线性变换是下面的形式:

因为这个矩阵M乘以一个向量(x,y)的结果是:

上面的矩阵是对称的,所以这个变换是一个对x,y轴的方向一个拉伸变换(每一个对角线上的元素将会对一个维度进行拉伸变换,当值>1时,是拉长,当值<1时时缩短),当矩阵不是对称的时候,假如说矩阵是下面的样子:

它所描述的变换是下面的样子:

这其实是在平面上对一个轴进行的拉伸变换(如蓝色的箭头所示),在图中,蓝色的箭头是一个最主要的变化方向(变化方向可能有不止一个),如果我们想要描述好一个变换,那我们就描述好这个变换主要的变化方向就好了。反过头来看看之前特征值分解的式子,分解得到的Σ矩阵是一个对角阵,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)

当矩阵是高维的情况下,那么这个矩阵就是高维空间下的一个线性变换,这个线性变化可能没法通过图片来表示,但是可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是之前说的:提取这个矩阵最重要的特征。总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。

注意事项
最后一个条是关键,一定要仔细看

特征值和特征向量的作用相关推荐

  1. 机器学习中的数学基础:(1)实际应用中矩阵特征值与特征向量的几何意义

    关于特征值.特征向量的讲解有很多的教程,对于这些枯燥的数学基础怎么运用到自己的实际计算机视觉实验中,是一项很重要的任务.算法的底层其实就是数学公式的各种结合与推导,有时间不是我们不能很好的去理解这些算 ...

  2. 矩阵特征分解介绍及雅克比(Jacobi)方法实现特征值和特征向量的求解(C++/OpenCV/Eigen)

    对角矩阵(diagonal matrix):只在主对角线上含有非零元素,其它位置都是零,对角线上的元素可以为0或其它值.形式上,矩阵D是对角矩阵,当且仅当对于所有的i≠j, Di,j= 0. 单位矩阵 ...

  3. 众人皆醉我独醒——深入理解“特征值”和“特征向量”

    https://www.toutiao.com/a6670680832820118029/ 这是<机器学习中的数学基础>系列的第7篇,也是线性代数的最后一篇. 我们已经知道,矩阵和向量的乘 ...

  4. 特征值与特征向量_矩阵的特征值和特征向量

    不少学习过线性代数的同学可能都有这样的疑惑,就是线性代数到底是什么?我们算的这些东西究竟有什么用?回忆起这门课来可能仅有的印象也就是矩阵.向量.还有一个特征什么来着? 线性代数是一门相对较为年轻的学科 ...

  5. 特征值和特征向量(Eigenvalues and Eigenvectors)

    特征值和特征向量是矩阵的本质内容,在动态问题中发挥很重要的作用,本文讲得矩阵默认为方阵(square). 1.几何意义 现在我们从几何的角度解释说明是特征值什么是特征向量.大多数的向量(x)乘上矩阵A ...

  6. 特征值和特征向量到底描述了什么

    矩阵的乘法 矩阵对向量可以做拉伸也可以做旋转 对角矩阵对向量(x,y)(x,y)(x,y)在x轴上拉伸了3倍.非对角矩阵对向量(x,y)(x,y)(x,y)不仅做了拉伸,同时也做了旋转. 特征值和特征 ...

  7. 线性代数拾遗(六):特征值与特征向量

    ‍‍ 线性代数拾遗(一):线性方程组.向量方程和矩阵方程 线性代数拾遗(二):线性方程组的解集及其几何意义 线性代数拾遗(三):线性变换以及矩阵的意义 线性代数拾遗(四):线性方程组的应用 线性代数拾 ...

  8. 漫步线性代数二十六——特征值和特征向量(续)

    上面展示了当求解du/dt=Audu/dt=Au时,如何自然而然的引出特征值λ\lambda和特征向量xx,这样的一个方程有纯指数解u=eλtxu=e^{\lambda t}x:特征值给出了增长或衰减 ...

  9. 随机向量x的协方差阵_【科普】如何正确理解特征值与特征向量

    Greeting! 特征值与特征向量是大学线性代数与统计学课程里的内容,当年强背了过去,并没有真正理解过这个问题.为了以后学习统计学习方法更方便,在此记录下学习文章以加深理解.(个人观点,如有错漏请提 ...

  10. c++求矩阵的秩_利用Python矩阵求逆、特征值及特征向量

    今日,分享点Python学习小记,利用Python实现以下目的: (1)判定是否为方阵 矩阵的本质就是映射.对于一个m×n的矩阵A,y=Ax的作用是将向量从n维原始空间中的x坐标位置,映射到m维目标空 ...

最新文章

  1. 【神经网络】(10) Resnet18、34 残差网络复现,附python完整代码
  2. 基于 JWT + Refresh Token 的用户认证实践
  3. python【力扣LeetCode算法题库】1248- 统计「优美子数组」
  4. Markdown-VScode打造Markdown编辑器
  5. Android中TextView中string的特殊符号显示的方法
  6. [bash] printf使用范例
  7. $.getJSON无法对外部变量进行赋值的问题
  8. SQL Server2005的XML数据类型之基础篇 (4)
  9. 利用CentOS的yum更新源来实现RHEL5的YUM功能
  10. 一、Django初级
  11. 地理空间数据云 如何预约下载数据 Landsat8
  12. verilog基础语法
  13. C# TCP异步通信TcpClient
  14. 可以批量把Word文件转成JPG的软件工具
  15. 波形和函数发生器(Waveform and Function Generator)
  16. 常见的十大恶意软件类型
  17. Web 服务器配置和管理
  18. 刻在祁连山上的艺术二维码,真的太酷了11
  19. stm32毕业设计 单片机万能红外遥控器
  20. 【UWB 定位】高精度定位

热门文章

  1. 清华2018计算机研究所录取结果,2018年清华北大自主招生录取名单公布!
  2. html如何调用flash插件,htmlflash播放器插件如何播放 网页播放器flash插件怎么解决...
  3. 算法-经典趣题-爱因斯坦阶梯问题
  4. 手把手教你基于Springboot+Vue搭建个人博客网站
  5. sklearn中多种编码方式——category_encoders(one-hot多种用法)
  6. 《游戏设计艺术(第2版)》——学习笔记(13)第13章 游戏机制必须平衡
  7. 重装系统后新建文本文档打不开怎么办
  8. 好玩的Deep Dream模型
  9. 页面劫持修复方法,织梦dedeCMS被流氓网站劫持如何解决
  10. Tips: Python语言中,《三国演义》人物出场统计