李浩 ,FPA蓝色 / EE。
知乎用户、Tavion Fu、雄哼哼 等人赞同

补充:答主现在用到的多数是对称矩阵或酉矩阵的情况,有思维定势了,写了半天才发现主要讲的是对称矩阵,这答案就当科普用了。特征值在很多领域应该都有自己的用途,它的物理意义到了本科高年级或者研究生阶段涉及到具体问题的时候就容易理解了,刚学线性代数的话,确实抽象。

——————————————————以下为正文——————————————————

从线性空间的角度看,在一个定义了内积的线性空间里,对一个N阶对称方阵进行特征分解,就是产生了该空间的N个标准正交基,然后把矩阵投影到这N个基上。N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。
特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。

应用到最优化中,意思就是对于R的二次型,自变量在这个方向上变化的时候,对函数值的影响最大,也就是该方向上的方向导数最大。
应用到数据挖掘中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大。

——————————————————举两个栗子——————————————————

应用1 二次型最优化问题

二次型,其中R是已知的二阶矩阵,R=[1,0.5;0.5,1],x是二维列向量,x=[x1;x2],求y的最小值。

求解很简单,讲一下这个问题与特征值的关系。
对R特征分解,特征向量是[-0.7071;0.7071]和[0.7071;0.7071],对应的特征值分别是0.5和1.5。
然后把y的等高线图画一下
从图中看,函数值变化最快的方向,也就是曲面最陡峭的方向,归一化以后是[0.7071;0.7071],嗯哼,这恰好是矩阵R的一个特征值,而且它对应的特征向量是最大的。因为这个问题是二阶的,只有两个特征向量,所以另一个特征向量方向就是曲面最平滑的方向。这一点在分析最优化算法收敛性能的时候需要用到。
二阶问题比较直观,当R阶数升高时,也是一样的道理。

应用2 数据降维

兴趣不大的可以跳过问题,直接看后面降维方法。
机器学习中的分类问题,给出178个葡萄酒样本,每个样本含有13个参数,比如酒精度、酸度、镁含量等,这些样本属于3个不同种类的葡萄酒。任务是提取3种葡萄酒的特征,以便下一次给出一个新的葡萄酒样本的时候,能根据已有数据判断出新样本是哪一种葡萄酒。
问题详细描述:UCI Machine Learning Repository: Wine Data Set
训练样本数据:http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data

原数据有13维,但这之中含有冗余,减少数据量最直接的方法就是降维。
做法:把数据集赋给一个178行13列的矩阵R,它的协方差矩阵,C是13行13列的矩阵,对C进行特征分解,对角化,其中U是特征向量组成的矩阵,D是特征之组成的对角矩阵,并按由大到小排列。然后,另,就实现了数据集在特征向量这组正交基上的投影。嗯,重点来了,R’中的数据列是按照对应特征值的大小排列的,后面的列对应小特征值,去掉以后对整个数据集的影响比较小。比如,现在我们直接去掉后面的7列,只保留前6列,就完成了降维。这个降维方法叫PCA(Principal Component Analysis)。
下面看结果:
这是不降维时候的分类错误率。
这是降维以后的分类错误率。

结论:降维以后分类错误率与不降维的方法相差无几,但需要处理的数据量减小了一半(不降维需要处理13维,降维后只需要处理6维)。

编辑于 2013-10-31 90 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 禁止转载

81赞同 反对,不会显示你的姓名
未知 ,EE狗一条……
知乎用户、Jerry Zhang、张序 等人赞同

特征值不仅仅是数学上的一个定义或是工具,特征值是有具体含义的,是完全看得见摸得着的。

1. 比如说一个三维矩阵,理解成线性变换,作用在一个球体上:

三个特征值决定了 对球体在三个维度上的拉伸/压缩,把球体塑造成一个橄榄球;

剩下的部分决定了这个橄榄球在三维空间里面怎么旋转。

2. 对于一个微分方程:

将系数提取出来

对角化:

其中

由于

定义

于是有

因此y的变化率与特征值息息相关:

再将y由Q变换回x,我们就能得出x在不同时间的值。x的增长速度就是特征值λ,Q用来把x旋转成y。

发布于 2013-10-25 12 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

48赞同 反对,不会显示你的姓名
Duanex ,电气工程,科幻迷
张序、徐小飞、polehui 等人赞同

前面的回答比较专业化,而且好像没说特征值是虚数的情况,并不是只有特征向量的伸缩。作为工科线代水平,我说下自己的理解。
矩阵特征值是对特征向量进行伸缩和旋转程度的度量,实数是只进行伸缩,虚数是只进行旋转,复数就是有伸缩有旋转。其实最重要的是特征向量,从它的定义可以看出来,特征向量是在矩阵变换下只进行“规则”变换的向量,这个“规则”就是特征值。推荐教材linear algebra and its application
编辑于 2014-05-23 16 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

21赞同 反对,不会显示你的姓名
燕南 ,物理学博士、愛好应用数学、读过一些纯数…
呵呵清清清、知乎用户、AttufliX 等人赞同

特徵向量反映了線性變換的方向,在這幾個方向上線性變換只導致伸縮,沒有旋轉;特徵值反映線性變換在這幾個方向上導致的伸縮的大小。
编辑于 2014-05-04 1 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

49赞同 反对,不会显示你的姓名
阿狸
crystal·jiang、Tavion Fu、张序 等人赞同

-----------------------------------------

详细信息参看《神奇的矩阵》

----这是打广告的分割线---------

想要理解特征值,首先要理解矩阵相似。什么是矩阵相似呢?从定义角度就是:存在可逆矩阵P满足B=则我们说A和B是相似的。让我们来回顾一下之前得出的重要结论:对于同一个线性空间,可以用两组不同的基和基来描述,他们之间的过渡关系是这样的:,而对应坐标之间的过渡关系是这样的:。其中P是可逆矩阵,可逆的意义是我们能变换过去也要能变换回来,这一点很重要。

我们知道,对于一个线性变换,只要你选定一组基,那么就可以用一个矩阵T1来描述这个线性变换。换一组基,就得到另一个不同的矩阵T2(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系)。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。具体来说,有一个线性变换,我们选择基来描述,对应矩阵是T1;同样的道理,我们选择基来描述,,对应矩阵是T2;我们知道基和基是有联系的,那么他们之间的变换T1T2有没有联系呢?

当然有,T1T2就是相似的关系,具体的请看下图:

没错,所谓相似矩阵,就是同一个线性变换的不同基的描述矩阵。这就是相似变换的几何意义。

这个发现太重要了。原来一族相似矩阵都是同一个线性变换的描述啊!难怪这么重要!工科研究生课程中有矩阵论、矩阵分析等课程,其中讲了各种各样的相似变换,比如什么相似标准型,对角化之类的内容,都要求变换以后得到的那个矩阵与先前的那个矩阵式相似的,为什么这么要求?因为只有这样要求,才能保证变换前后的两个矩阵是描述同一个线性变换的。就像信号处理(积分变换)中将信号(函数)进行拉氏变换,在复数域处理完了之后又进行拉式反变换,回到实数域一样。信号处理中是主要是为了将复杂的卷积运算变成乘法运算。其实这样的变换还有好多,有兴趣可以看积分变换的教材。

为什么这样做呢?矩阵的相似变换可以把一个比较丑的矩阵变成一个比较美的矩阵,而保证这两个矩阵都是描述了同一个线性变换。至于什么样的矩阵是“美”的,什么样的是“丑”的,我们说对角阵是美的。在线性代数中,我们会看到,如果把复杂的矩阵变换成对角矩阵,作用完了之后再变换回来,这种转换很有用处,比如求解矩阵的n次幂!而学了矩阵论之后你会发现,矩阵的n次幂是工程中非常常见的运算。这里顺便说一句,将矩阵对角化在控制工程和机械振动领域具有将复杂方程解耦的妙用!总而言之,相似变换是为了简化计算!

从另一个角度理解矩阵就是:矩阵主对角线上的元素表示自身和自身的关系,其他位置的元素aij表示i位置和j位置元素之间的相互关系。那么好,特征值问题其实就是选取了一组很好的基,就把矩阵 i位置和j位置元素之间的相互关系消除了。而且因为是相似变换,并没有改变矩阵本身的特性。因此矩阵对角化才如此的重要!

特征向量的引入是为了选取一组很好的基。空间中因为有了矩阵,才有了坐标的优劣。对角化的过程,实质上就是找特征向量的过程。如果一个矩阵在复数域不能对角化,我们还有办法把它化成比较优美的形式——Jordan标准型。高等代数理论已经证明:一个方阵在复数域一定可以化成Jordan标准型。这一点有兴趣的同学可以看一下高等代数后或者矩阵论。

特征值英文名eigen value。“特征”一词译自德语的eigen,由希尔伯特在1904年首先在这个意义下使用(赫尔曼·冯·亥姆霍兹在更早的时候也在类似意义下使用过这一概念)。eigen一词可翻译为“自身的”,“特定于...的”,“有特征的”或者“个体的”—这强调了特征值对于定义特定的变换上是很重要的。它还有好多名字,比如谱,本征值。为什么会有这么多名字呢?

原因就在于他们应用的领域不同,中国人为了区分,给特不同的名字。你看英文文献就会发现,他们的名字都是同一个。当然,特征值的思想不仅仅局限于线性代数,它还延伸到其他领域。在数学物理方程的研究领域,我们就把特征值称为本征值。如在求解薛定谔波动方程时,在波函数满足单值、有限、连续性和归一化条件下,势场中运动粒子的总能量(正)所必须取的特定值,这些值就是正的本征值。

前面我们讨论特征值问题面对的都是有限维度的特征向量,下面我们来看看特征值对应的特征向量都是无限维函数的例子。这时候的特征向量我们称为特征函数,或者本证函数。这还要从你熟悉的微分方程说起。方程本质是一种约束,微分方程就是在世界上各种各样的函数中,约束出一类函数。对于一阶微分方程

我们发现如果我将变量y用括号[]包围起来,微分运算的结构和线性代数中特征值特征向量的结构,即竟是如此相似。这就是一个求解特征向量的问题啊!只不过“特征向量”变成函数!我们知道只有满足这个式子。这里出现了神奇的数e,一杯开水放在室内,它温度的下降是指数形式的;听说过放射性元素的原子核发生衰变么?随着放射的不断进行,放射强度将按指数曲线下降;化学反应的进程也可以用指数函数描述……类似的现象还有好多。

为什么选择指数函数而不选择其他函数,因为指数函数是特征函数。为什么指数函数是特征?我们从线性代数的特征向量的角度来解释。这已经很明显了就是“特征向量”。于是,很自然的将线性代数的理论应用到线性微分方程中。那么指数函数就是微分方程(实际物理系统)的特征向量。用特征向量作为基表示的矩阵最为简洁。就像你把一个方阵经过相似对角化变换,耦合的矩阵就变成不耦合的对角阵一样。在机械振动里面所说的模态空间也是同样的道理。如果你恰巧学过振动分析一类的课程,也可以来和我交流。

同理,用特征函数解的方程也是最简洁的,不信你用级数的方法解方程,你会发现方程的解有无穷多项。解一些其他方程的时候(比如贝塞尔方程)我们目前没有找到特征函数,于是退而求其次才选择级数求解,至少级数具有完备性。实数的特征值代表能量的耗散或者扩散,比如空间中热量的传导、化学反应的扩散、放射性元素的衰变等。虚数的特征值(对应三角函数)代表能量的无损耗交换,比如空间中的电磁波传递、振动信号的动能势能等。复数的特征值代表既有交换又有耗散的过程,实际过程一般都是这样的。复特征值在电路领域以及振动领域将发挥重要的作用,可以说,没有复数,就没有现代的电气化时代!

对于二阶微分方程方程,它的解都是指数形式或者复指数形式。可以通过欧拉公式将其写成三角函数的形式。复特征值体现最多的地方是在二阶系统,别小看这个方程,整本自动控制原理都在讲它,整个振动分析课程也在讲它、还有好多课程的基础都是以这个微分方程为基础,这里我就不详细说了,有兴趣可以学习先关课程。说了这么多只是想向你传达一个思想,就是复指数函数式系统的特征向量!

如果将二阶微分方程转化成状态空间的形式(具体转化方法见现代控制理论,很简单的)

。则一个二阶线性微分方程就变成一个微分方程组的形式这时就出现了矩阵A,矩阵可以用来描述一个系统:如果是振动问题,矩阵A的特征值是虚数,对应系统的固有频率,也就是我们常说的,特征值代表振动的谱。如果含有耗散过程,特征值是负实数,对应指数衰减;特征值是正实数,对应指数发散过程,这时是不稳定的,说明系统极容易崩溃,如何抑制这种发散就是控制科学研究的内容。

提到振动的谱,突然想到了这个经典的例子:美国数学家斯特让(G..Strang)在其经典教材《线性代数及其应用》中这样介绍了特征值作为频率的物理意义,他说:"大概最简单的例子(我从不相信其真实性,虽然据说1831年有一桥梁毁于此因)是一对士兵通过桥梁的例子。传统上,他们要停止齐步前进而要散步通过。这个理由是因为他们可能以等于桥的特征值之一的频率齐步行进,从而将发生共振。就像孩子的秋千那样,你一旦注意到一个秋千的频率,和此频率相配,你就使频率荡得更高。一个工程师总是试图使他的桥梁或他的火箭的自然频率远离风的频率或液体燃料的频率;而在另一种极端情况,一个证券经纪人则尽毕生精力于努力到达市场的自然频率线。特征值是几乎任何一个动力系统的最重要的特征。"

对于一个线性系统,总可以把高阶的方程转化成一个方程组描述,这被称为状态空间描述。因此,他们之间是等价的。特征值还有好多用处,原因不在特征值本身,而在于特征值问题和你的物理现象有着某种一致的对应关系。学习特征值问题告诉你一种解决问题的方法:寻找事物的特征,然后特征分解。

编辑于 2016-02-08 13 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

173赞同 反对,不会显示你的姓名
郑梓豪 ,CS224d 学习中...
张序、啦啦、知乎用户 等人赞同 • 收录于 编辑推荐

各位知友在点赞同之前请看一下评论区。这个例子有待讨论。

-----------
我举一个直观一点的例子吧...我也喜欢数学的直观之美。

我们知道,一张图像的像素(如:320 x 320)到了计算机里面事实上就是320x320的矩阵,每一个元素都代表这个像素点的颜色..

如果我们把基于特征值的应用,如PCA、向量奇异值分解SVD这种东西放到图像处理上,大概就可以提供一个看得到的、直观的感受。关于SVD的文章可以参考LeftNotEasy的文章:机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用

简单的说,SVD的效果就是..用一个规模更小的矩阵去近似原矩阵...

这里A就是代表图像的原矩阵..其中的尤其值得关注,它是由A的特征值从大到小放到对角线上的..也就是说,我们可以选择其中的某些具有“代表性”的特征值去近似原矩阵!

左边的是原始图片
当我把特征值的数量减少几个的时候...后面的图像变“模糊”了..
同样地...

关键的地方来了!如果我们只看到这里的模糊..而没有看到计算机(或者说数学)对于人脸的描述,那就太可惜了...我们看到,不论如何模糊,脸部的关键部位(我们人类认为的关键部位)——五官并没有变化太多...这能否说:数学揭示了世界的奥秘?

编辑于 2014-05-05 30 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

31赞同 反对,不会显示你的姓名
黄培浩 ,程序员
董笙、啊啊鸟人啊啊、蒋淡宁 等人赞同

作为一个线性代数考60+的学渣,我是这么直观地理解的:

 把式子中的看作一个线性变换,那么这个定义式就表示对于 向量而言,经过变换之后该向量的方向没有变化(可能会反向),而只是长度变化了(乘以 )。

也就是对于变换来说,存在一些“不变”的量(比如特征向量的方向),我想,“特征”的含义就是“不变”

而特征值,如你所见,就是变换  在特征方向上的伸展系数吧(乱诹了个名词 :P)。

嗯,觉得维基其实讲的就挺好的:https://zh.wikipedia.org/wiki/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F

编辑于 2014-03-30 3 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

22赞同 反对,不会显示你的姓名
江磊 ,大众点评码农
陈茜、Xenophon Tony、刘嘉禾 等人赞同

站在线性变换的角度来看矩阵的话。
矩阵(线性变换)作用在一个向量上无非是将该向量伸缩(包括反向伸缩)与旋转。
忽略复杂的旋转变换,只考虑各个方向(特征方向)伸缩的比例,所提取出的最有用,最关键的信息就是特征值了。
编辑于 2013-10-24 8 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

32赞同 反对,不会显示你的姓名
Gilbert ,you know nothing
deyi wang、张荣真、yaoxinliu 等人赞同

定义很抽象我也一直搞不懂,但是最近开始在图像处理方面具体应用的时候就清晰很多了,用学渣的语言沟通一下吧我们。

抛开学术研究不谈,其实根本不会,特征值eigenvalue和特征向量eigenvector的一大应用是用于大量数据的降维

比如拿淘宝举个例子,每个淘宝店铺有N个统计数据:商品类型,日销量周销量月销量、好评率中评差评率……全淘宝有M家店铺,那么服务器需要记录的数据就是M*N的矩阵;

这是一个很大的数据,实际上我们可以通过求这个矩阵的特征向量和对应的特征值来重新表示这个M*N的矩阵:
我们可以用周销量来误差不大的表示日销量和月销量(除以七和乘以四),这个时候周销量就可以当作一个特征向量,它能够表示每个店铺销量这个空间方向的主要能量(也就是数据),这样我们就简略的把一个35维的向量简化成四维的(30个日销量加4个周销量加1个月销量);
同理我们也可以把好评率中评率差评率用一个好评率来表示(剩余的百分比默认为差评率),这样的降维大致上也能反映一个店铺的诚信度;
这样通过不断的降维我们可以提取到某系列数据最主要的几个特征向量(对应特征值最大的),这些向量反映了这个矩阵空间最主要的能量分布,所以我们可以用这几个特征向量来表示整个空间,实现空间的降维。

这个方法叫做Principle Components Analysis,有兴趣的同学可以wiki一下。

学渣飘过了

编辑于 2015-10-23 12 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

1赞同 反对,不会显示你的姓名
董豪晨 ,做更好的算法
黄苍杰 赞同

看了大部分的回答,基本都没有回答出为什么要求特征值。

特征值和特征向量是为了研究矩阵仿射变换的不变性而提出的,一个空间里的元素通过线性变换到另一个相同维数的空间,那么会有某些向量的方向在变换前后不会改变,方向不变但是这些向量的范数可能会改变,我这里说的都是实数空间的向量。

定义,定义为原始空间中的向量,为变换后空间的向量,简单起见令阶方阵且特征值互不相同,对应的特征向量线性无关。那么原始空间中的任何一个向量都可以由A的特征向量表示,既那么在变换到另一个空间时,这就求完了!

好,下面再说更深层次的含义。

在不同的领域特征值的大小与特征向量的方向所表示的含义也不同,但是从数学定义上来看,每一个原始空间中的向量都要变换到新空间中,所以他们之间的差异也会随之变化,但是为了保持相对位置,每个方向变换的幅度要随着向量的分散程度进行调整。

你们体会一下拖拽图片使之放大缩小的感觉。

如果A为样本的协方差矩阵,特征值的大小就反映了变换后在特征向量方向上变换的幅度,幅度越大,说明这个方向上的元素差异也越大,换句话说这个方向上的元素更分散。

编辑于 2016-04-16 添加评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

4赞同 反对,不会显示你的姓名
单英晋 ,数学门外汉
大卫、王一凡、看开拉 等人赞同

什么是方阵?方阵就是n维线性空间上的线性变换。那么我们总要考虑最简单的情况:什么是一维的线性变换呢?就是简单的常数倍拉伸
A: x -> ax

在高维的时候,线性变换A的结构可能很复杂,但它总会保持某些一维子空间不变。在这些子空间上它的限制就是一个一维线性变换,这个变换的拉伸常数就是A在这个子空间上的特征值。

发布于 2013-10-24 添加评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

1赞同 反对,不会显示你的姓名
九铭书记 ,知道一点微末的数学知识,一直想还原有趣…
李勇 赞同

特征值后面对于解矩阵微分方程也有很大作用。矩阵的特征值是一种线性变换,可以理解为在坐标轴上(可以为多维度坐标轴)的一种拉伸变换
发布于 2014-05-05 添加评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

2赞同 反对,不会显示你的姓名
KevinSun ,机器学习博士在读,只关注神经网络方法!
看开拉、teresa zhang 赞同

特征值首先是描述特征的。比如你的图片是有特征的,并且图片是存在某个坐标系的。特征向量就代表这个坐标系,特征值就代表这个特征在这个坐标方向上的恭喜。总之,就是代表在对应左边轴上的特征大小的贡献
发布于 2014-05-05 3 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

32赞同 反对,不会显示你的姓名
闫星光 ,这个定理的证明将留给读者作为练习
张序、啦啦、黄开宇 等人赞同

/* 多图预警 */
用特征向量作为基,线性变换会很简单,仅仅是伸缩变换,而特征值就是伸缩的大小。
各位已经说的很清楚了,我就发几张用mathematica做的图吧。

这里只给出一些“可视化”的2D线性变换。
平面当中的一个向量经过一个线性变换(乘上一个矩阵)之后变成了另一个的向量,把它的起点接在,就可以表示线性变换的特性。再画出一组特征向量,我们就有下图:

颜色越深冷,代表向量长度越小。
可以看出特征向量所在的直线上的向量经过变换之后方向不变,这意味着一个向量的分量是各自独立的,这对于我们分析矩阵、线性变换就方便了很多。

(绿色箭头是矩阵的行向量,红色是特征向量)

只有一个特征值-1的情况:


特征值是虚数的反对称矩阵:
其实做的是动图,可惜知乎不支持动图。

编辑于 2015-04-21 3 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

3赞同 反对,不会显示你的姓名
知乎用户 ,随风奔跑自由是方向
啦啦、兔小灰、知乎用户 赞同

仅考虑非奇异矩阵。

以3阶非奇异矩阵为例,设它的3个特征值(多重特征值就重复写)分别为 ,,, 对应的特征向量分别为,,则线性无关。

此时任一向量可表示为的线性组合,设,则有

正好是的各特征向量上分量乘以特征值之和。

编辑于 2015-10-13 1 条评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

1赞同 反对,不会显示你的姓名
张涵 ,NLP/ML/ECG
一碗酱油 赞同

从PAGERANK算法角度出发,多次进行迭代R=MR得出收敛的向量即为特征向量。参考特征向量的定义:aR=MR,把a(一个数)除到右边去及有R=M1 R,M1=M/a.以上就是pagerank算法的简易数学支撑。
发布于 2015-01-09 添加评论 感谢

分享

收藏 • 没有帮助 • 举报 • 作者保留权利

17赞同 反对,不会显示你的姓名
四爷 ,Indeco
单梁、张荣真、骷髅头 等人赞同

就去让你给我接个人,她有很多特征,我会挑几个特典型如长发超级大美女、身材高挑皮肤好。。。其中特征值就是多高,多美,特征向量就是这些分类。。因为不需要给你所有信息,只要几个典型也不会让你找错人,所以能给你降维。
如果你要找女友,只要几个典型如美,高之类的,估计你很快就能在100人中就能找到你心仪的,所以能寻优
from: http://www.zhihu.com/question/21874816

如何理解矩阵特征值?相关推荐

  1. 如何将一个向量投影到一个平面上_如何理解矩阵特征值的意义?

    毕业多年,曾经有同事问我该如何理解特征值的意义? 当时,实在羞愧,我一学数学的,真不知该如何回答. 极力回想,也只能以"特征值的求法.步骤...bla...bla..."应付了事, ...

  2. 如何理解矩阵的乘法?

    如何理解矩阵的乘法? 转载:http://www.360doc.com/content/18/0208/09/15930282_728535573.shtml 2018-02-08 风九天88 阅 1 ...

  3. 深度理解矩阵的奇异值,特征值

    文章目录 正交矩阵 特征值分解--EVD 矩阵特征值和特征向量定义 特征值的含义 分解过程详解 奇异值分解--SVD 矩阵的奇异值与特征值有什么相似之处与区别之处 看了蛮多关于矩阵特征值,奇异值的文章 ...

  4. 矩阵特征值与行列式、迹的关系

    矩阵特征值与行列式.迹的关系 from: http://www.cnblogs.com/AndyJee/p/3737592.html 矩阵的特征值之积等于矩阵的行列式 矩阵的特征值之和等于矩阵的迹 简 ...

  5. 理解矩阵 的一些评论

    [一些评论] 三篇都看过,这是第一次发表评论. 孟岩关于矩阵.变换.坐标系的阐述,有些地方确实很直观. 不过这种直观有某些局限性.就是说在某一个应用方面这样来理解和思考会很直观.普遍看来一些对概念的理 ...

  6. 理解矩阵,矩阵背后的现实意义

    https://blog.csdn.net/ecidevilin/article/details/79065949 原文链接(排版稍作调整)  http://www.360doc.com/conten ...

  7. 理解矩阵背后的现实意义

    线性代数课程,无论你从行列式入手还是直接从矩阵入手,从一开始就充斥着莫名其妙.比如说,在全国一般工科院系教学中应用最广泛的同济线性代数教材(现在到了第四版),一上来就介绍逆序数这个"前无古人 ...

  8. 【转载】理解矩阵(一)

    原文:理解矩阵(一) 前不久chensh出于不可告人的目的,要充当老师,教别人线性代数.于是我被揪住就线性代数中一些务虚性的问题与他讨论了几次.很明显,chensh觉得,要让自己在讲线性代数的时候不被 ...

  9. 理解矩阵,矩阵背后的现实意义 [转]

    这是很早以前已经看过的,最近无意中又把保存的文章翻出来时,想起很多朋友问过矩阵,虽对矩阵似懂非懂,但却很想弄懂它,希望这几篇文章能帮你一下,故转之:   线性代数课程,无论你从行列式入手还是直接从矩阵 ...

最新文章

  1. 机器人也来玩“踢瓶盖挑战”了,你动他就动,靠脑电控制,路人也能玩丨MIT出品...
  2. 零基础如何学习SAP BI模块
  3. PHP7.0连接DB
  4. leetcode 485,487,1004. Max Consecutive Ones I ,II, III(最大连续1的个数问题合集)
  5. c语言万能预编译,Objective-C学习笔记
  6. python关键字的意思_python 关键字(Keywords)
  7. 创新品牌体验团队_如何推动软件团队创新
  8. vue项目打包之后首页白屏的问题
  9. netcore codefirst生成数据库命令
  10. 给Vue实例添加新的属性
  11. 关于URDF中的惯性矩阵描述问题
  12. 线性代数01:函数对向量、矩阵的梯度(向量、矩阵求导)
  13. C语言入门——求n的阶乘
  14. 北美票房:《玻璃先生》无悬念夺魁
  15. 【TcaplusDB知识库】快速上手TDR表的增删查改操作
  16. iOS开发-XIB、Storyboard操作小技巧
  17. 北京同创蓝天的全景航拍技术如何?应用在哪些方面呢?
  18. okhttp之 header详解
  19. VMware vSphere(三)update management
  20. 憨猫的EventLoop事件循环小解

热门文章

  1. BERT Word Embeddings Tutorial
  2. Android日期分组,按查询分组在列表视图android中显示一些意...
  3. 复习笔记(七)——C++友元
  4. RocketMQ简介
  5. python 合并两个排序的链表
  6. 高德地图区域线显示_护航国庆假期,助力重点区域精细化管理——扬州交警与高德地图联合推出“全境智能”系统...
  7. 安卓使用Span富文本给某段Text文本加上波浪线
  8. pyqt5教程13:客户定制组件
  9. 语音识别系列1:语音识别Speech recognition综述
  10. python 对象序列化 pickling_[Python]对dat文件的操作:序列化对象