文章目录

  • 1 特征空间
  • 2 广义特征向量
  • 3 广义特征空间

  之前把广义特征向量放在特征值的第一篇文章里,我后来觉得对初学者太不友好了,所以剪出来,单独作为一篇文章。

1 特征空间

  前面说过矩阵不过是把自己的特征向量给延长或缩短了,为了求特征值和特征向量,我们有以下的方程:
( A − λ I ) v = 0 (A-\lambda I)v=0 (A−λI)v=0
  把某个特征值代进去,得到的 A − λ I A-\lambda I A−λI是一个矩阵,这个矩阵会把对应的特征向量变成0向量。这群向量构成了一个空间,这个空间就叫做特征空间
  可以举个例子:
A = ( 2.0 1.0 − 1.0 1.0 2.0 − 1.0 − 1.0 − 1.0 2.0 ) A − λ I = ( 1.0 1.0 − 1.0 1.0 1.0 − 1.0 − 1.0 − 1.0 1.0 ) A=\begin{pmatrix} 2.0 & 1.0 & -1.0\\ 1.0 & 2.0 & -1.0\\ -1.0 & -1.0 & 2.0 \end{pmatrix}\\ A-\lambda I=\begin{pmatrix} 1.0 & 1.0 & -1.0\\ 1.0 & 1.0 & -1.0\\ -1.0 & -1.0 & 1.0 \end{pmatrix}\\ A= ​2.01.0−1.0​1.02.0−1.0​−1.0−1.02.0​ ​A−λI= ​1.01.0−1.0​1.01.0−1.0​−1.0−1.01.0​ ​
  然后我们根据定义解下齐次线性方程组就可以了。
( 1.0 1.0 − 1.0 1.0 1.0 − 1.0 − 1.0 − 1.0 1.0 ) ∼ ( 1.0 1.0 − 1.0 0.0 0.0 0.0 0.0 0.0 0.0 ) ∴ v = k 1 ( 1 0 1 ) + k 2 ( 0 1 1 ) \begin{pmatrix} 1.0 & 1.0 & -1.0\\ 1.0 & 1.0 & -1.0\\ -1.0 & -1.0 & 1.0 \end{pmatrix} \sim \begin{pmatrix} 1.0 & 1.0 & -1.0\\ 0.0 & 0.0 & 0.0\\ 0.0 & 0.0 & 0.0 \end{pmatrix}\\ \therefore v=k_1\begin{pmatrix}1\\0\\1\end{pmatrix}+k_2\begin{pmatrix}0\\1\\1\end{pmatrix} ​1.01.0−1.0​1.01.0−1.0​−1.0−1.01.0​ ​∼ ​1.00.00.0​1.00.00.0​−1.00.00.0​ ​∴v=k1​ ​101​ ​+k2​ ​011​ ​
  所以这个特征空间的两个基就求出来了。我们再试一下下一个特征值4:
A = ( 2.0 1.0 − 1.0 1.0 2.0 − 1.0 − 1.0 − 1.0 2.0 ) A − λ I = ( − 2.0 1.0 − 1.0 1.0 − 2.0 − 1.0 − 1.0 − 1.0 − 2.0 ) A=\begin{pmatrix} 2.0 & 1.0 & -1.0\\ 1.0 & 2.0 & -1.0\\ -1.0 & -1.0 & 2.0 \end{pmatrix}\\ A-\lambda I=\begin{pmatrix} -2.0 & 1.0 & -1.0\\ 1.0 & -2.0 & -1.0\\ -1.0 & -1.0 & -2.0 \end{pmatrix}\\ A= ​2.01.0−1.0​1.02.0−1.0​−1.0−1.02.0​ ​A−λI= ​−2.01.0−1.0​1.0−2.0−1.0​−1.0−1.0−2.0​ ​
  同样,解一下这个齐次方程组:
( − 2.0 1.0 − 1.0 1.0 − 2.0 − 1.0 − 1.0 − 1.0 − 2.0 ) ∼ ( − 2.0 1.0 − 1.0 0.0 1.0 1.0 0.0 0.0 0.0 ) ∴ v = k ( 0 1 1 ) \begin{pmatrix} -2.0 & 1.0 & -1.0\\ 1.0 & -2.0 & -1.0\\ -1.0 & -1.0 & -2.0 \end{pmatrix} \sim \begin{pmatrix} -2.0 & 1.0 & -1.0\\ 0.0 & 1.0 & 1.0\\ 0.0 & 0.0 & 0.0 \end{pmatrix}\\ \therefore v=k\begin{pmatrix}0\\1\\1\end{pmatrix} ​−2.01.0−1.0​1.0−2.0−1.0​−1.0−1.0−2.0​ ​∼ ​−2.00.00.0​1.01.00.0​−1.01.00.0​ ​∴v=k ​011​ ​
  这样两个特征值的特征空间就求出来了。

2 广义特征向量

  有了特征向量和特征向量构成的特征空间,我们知道 A − λ I A-\lambda I A−λI可以把特征空间里的向量变成0。我们再想想, ( A − λ I ) 2 (A-\lambda I)^2 (A−λI)2能不能把某个向量变成0呢?三次方呢?四次方呢?有了方向,数学家们就开始思考了,于是有了广义特征向量的定义:
( A − λ I ) j v = 0 (A-\lambda I)^jv=0 (A−λI)jv=0
  公式中v被成为广义特征向量generalized eigenvector,对于某个固定的v,上述公式中的 j j j的最小值是广义特征向量的下标index。毫无疑问,特征向量本身是一个j=1的广义特征向量。我们举个例子:
A = ( 2 1 1 − 2 − 1 − 2 1 1 2 ) λ = 1 A= \begin{pmatrix} 2 & 1 & 1\\ -2 & -1 & -2\\ 1 & 1 & 2 \end{pmatrix}\\ \lambda=1 A= ​2−21​1−11​1−22​ ​λ=1
  以 λ 1 = 2 \lambda_1=2 λ1​=2为例子,求它的特征方程:
A = ( 3 1 1 − 2 0 − 2 1 1 3 ) A − 2 I = ( 1 1 1 − 2 − 2 − 2 1 1 1 ) ∼ ( 1 1 1 0 0 0 0 0 0 ) v = k 1 ( − 1 1 0 ) + k 2 ( − 1 0 1 ) ( A − 2 I ) 2 = ( 0 0 0 0 0 0 0 0 0 ) v = k 1 ( 1 0 0 ) + k 2 ( 0 1 0 ) + k 3 ( 0 0 1 ) A=\begin{pmatrix} 3 & 1 & 1\\ -2 & 0 & -2\\ 1 & 1 & 3 \end{pmatrix} \\ A-2I= \begin{pmatrix} 1 & 1 & 1\\ -2 & -2 & -2\\ 1 & 1 & 1 \end{pmatrix} \sim \begin{pmatrix} 1 & 1 & 1\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\\ v=k_1\begin{pmatrix}-1\\1\\0\end{pmatrix}+k_2\begin{pmatrix}-1\\0\\1\end{pmatrix}\\ (A-2I)^2= \begin{pmatrix} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\\ v=k_1\begin{pmatrix}1\\0\\0\end{pmatrix}+k_2\begin{pmatrix}0\\1\\0\end{pmatrix}+k_3\begin{pmatrix}0\\0\\1\end{pmatrix}\\ A= ​3−21​101​1−23​ ​A−2I= ​1−21​1−21​1−21​ ​∼ ​100​100​100​ ​v=k1​ ​−110​ ​+k2​ ​−101​ ​(A−2I)2= ​000​000​000​ ​v=k1​ ​100​ ​+k2​ ​010​ ​+k3​ ​001​ ​
  所以j到2时,再乘什么都是0矩阵了,广义特征向量就是任意向量,再乘方就没意义了。

3 广义特征空间

  对于上述的规律,我们总在j增大到一定程度后,广义特征向量所在的空间是不会增大的。所以对某个特定的特征值定义了以下空间:
E j ( λ ) = { v ∣ ( A − λ I ) j v = 0 } E_j(\lambda)=\{v|(A-\lambda I)^jv=0\} Ej​(λ)={v∣(A−λI)jv=0}
  当 j j j无穷大时定义的空间 E ∞ ( λ ) E_\infty(\lambda) E∞​(λ),被称为广义特征空间generalized eigenspace。但是也不要看到无穷就悲观,因为前面我们说了当j到一定程度时, E j ( λ ) E_j(\lambda) Ej​(λ)空间不再扩大,这个时候就等于广义特征空间,这时候的 j j j被称为广义特征向量最大下标maximum index of
a generalized eigenvector of A associated to λ
,数学符号为 m a x max max- i n d ( λ ) ind(\lambda) ind(λ)。实际上 m a x max max- i n d ( λ ) ind(\lambda) ind(λ)等于该特征值最大约当块的行数。所以利用这个特性,可以快速确定矩阵的约当标准型。如下面的矩阵:
( 2 1 − 1 1 2 − 1 − 1 − 1 2 ) λ 1 = λ 2 = 1 , λ 3 = 4 \begin{pmatrix} 2 & 1 & -1\\ 1 & 2 & -1\\ -1 & -1 & 2 \end{pmatrix}\\ \lambda_1=\lambda_2=1,\lambda_3=4 ​21−1​12−1​−1−12​ ​λ1​=λ2​=1,λ3​=4
  它的约当标准型有两种可能:
( 1 1 0 0 1 0 0 0 4 ) o r ( 1 0 0 0 1 0 0 0 4 ) \begin{pmatrix} 1 & 1 & 0\\ 0 & 1& 0\\ 0 & 0 & 4 \end{pmatrix}or \begin{pmatrix} 1 & 0 & 0\\ 0 & 1& 0\\ 0 & 0 & 4 \end{pmatrix} ​100​110​004​ ​or ​100​010​004​ ​
  那么到底是哪一种?这个时候就需要用特征空间了,求出 m a x max max- i n d ( 1 ) ind(1) ind(1)。那只能拿特征方程计算下呗:
A − λ I = ( 1 1 − 1 1 1 − 1 − 1 − 1 1 ) ∼ ( 1 1 − 1 0 0 0 0 0 0 ) ( A − λ I ) 2 = ( 3 3 − 3 3 3 − 3 − 3 − 3 3 ) ∼ ( 1 1 − 1 0 0 0 0 0 0 ) A-\lambda I=\begin{pmatrix} 1 & 1 & -1\\ 1 & 1 & -1\\ -1 & -1 & 1 \end{pmatrix} \sim \begin{pmatrix} 1 & 1 & -1\\ 0 & 0 & 0\\ 0 & 0 & 0\end{pmatrix}\\ (A-\lambda I)^2=\begin{pmatrix} 3 & 3 & -3\\ 3 & 3 & -3\\ -3 & -3 & 3 \end{pmatrix}\sim \begin{pmatrix} 1 & 1 & -1\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\\ A−λI= ​11−1​11−1​−1−11​ ​∼ ​100​100​−100​ ​(A−λI)2= ​33−3​33−3​−3−33​ ​∼ ​100​100​−100​ ​
  特征方程的二次方并没有变成0矩阵,说明 m a x {max} max- i n d ( 1 ) = 1 {ind}(1)=1 ind(1)=1,所以约当标准型为:
( 1 0 0 0 1 0 0 0 4 ) \begin{pmatrix} 1 & 0 & 0\\ 0 & 1& 0\\ 0 & 0 & 4 \end{pmatrix} ​100​010​004​ ​

6.7 广义特征向量与特征空间相关推荐

  1. SLNR预编码:广义瑞丽熵与广义特征向量

    前言 这两天在调研MIMO预编码算法文献的时候,恰巧看到了一篇这篇paper: A Leakage-Based Precoding Scheme for Downlink Multi-User MIM ...

  2. 线性代数(三十四) : 广义特征向量

    本节定义广义特征向量,为谱定理做准备. 1 广义特征向量 如果f不等与0,且存在某个正整数m使得: 则称f是A的相对于特征值a的广义特征向量 2 示例 首先定义矩阵A的一个广义特征向量f 满则: (1 ...

  3. 广义特征向量计算方法

    代数重数与几何重数(对于单个特征值而言) 代数重数:相同特征值的个数. 几何重数:特征子空间的维数为几何重数,因为空间是几何里的概念,rank(λI−A)=n−αrank(λI-A)=n-αrank( ...

  4. matlab 广义特征,特征值 特征向量 广义特征值 matlab

    d=eig(A) 返回矩阵A特征值的一个向量d. d=eig(A,B) 如果A和B是方阵的,返回包含广义特征的向量. 注意:如果S是稀疏对称的,用d = eig(S) 可以返回S的特征值.如果S是稀疏 ...

  5. 特征值和特征向量概述-面试必问3(含特征值、向量意义)

    特征值和特征向量(Eigenvalues and eigenvectors) 在线性代数中,一个线性变换的特征向量(eigenvector 或者 characteristic vector)是一个非零 ...

  6. 征值和特征向量的几何意义、计算及其性质

    征值和特征向量的几何意义.计算及其性质 一.特征值和特征向量的几何意义 特征值和特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向 ...

  7. 帮你理解特征向量的几何意义?

    线性代数中特征向量的几何意义? 概念: 特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍是同维数的一个向 ...

  8. 特征值和特征向量到底描述了什么

    矩阵的乘法 矩阵对向量可以做拉伸也可以做旋转 对角矩阵对向量(x,y)(x,y)(x,y)在x轴上拉伸了3倍.非对角矩阵对向量(x,y)(x,y)(x,y)不仅做了拉伸,同时也做了旋转. 特征值和特征 ...

  9. 矩阵理论| 基础:Jordan标准型(从Jordan标准型求代数重数/几何重数/特征向量)

    引言:如何判定两个矩阵相似 相似矩阵,本质上是同一个线性变换在不同坐标系下的矩阵 因此,两个矩阵相似的一大特点是:特征值相同,各特征值的几何重数/代数重数相同 进而,我们可以用特征多项式.特征值.行列 ...

最新文章

  1. 免费查找AI最优论文神器:一键出结果,分分钟提取论文表格、最新数据
  2. (转)用ASP.NET向Javascript传递变量 方法1:
  3. boost::safe_numerics::interval相关的测试程序
  4. LeetCode刷题: 整数反转
  5. 龙芯.NET正式发布 开源共享与开发者共成长
  6. Unity C#笔记 协程详解(转)
  7. Boost 1.34.0 终于5.12发布了
  8. [20180826]四校联考
  9. OMM机房监控系统引领机房监控新趋势
  10. airflow 部署
  11. 三角函数常用公式一篇汇
  12. 机器视觉:偏振片应用
  13. keeplive+haproxy+nginx
  14. fedora14安装
  15. asp毕业设计—— 基于asp+access的网上购物系统设计与实现(毕业论文+程序源码)——网上购物系统
  16. 关于网站建设的主要流程和步骤(小白指南)
  17. Android webview 播放视频及全屏
  18. Vue3 suspense
  19. 树莓派连接人体感应模块HC-SR501
  20. 正确姿势临时和永久开启关闭Android的SELinux

热门文章

  1. 年轻人的第一个APM-Skywalking
  2. 家里宽带使用有线连接网速很快但是使用无线连接网速很慢的解决方法
  3. python 习题练习一
  4. 【STM32】关于Clion+STM32cubeMX环境搭建过程中所遇到的一些问题·其一
  5. PRACH过程中RA-RNTI和C-RNTI的作用
  6. Java获取两个日期之间的工作日天数
  7. MyBatis关联嵌套映射(association、collection、discriminator)
  8. EMWIN电容触摸Touch步骤及注意事项
  9. 请求响应数据?Controler层注解!
  10. js 替换所有指定的字符串