前言

学习矩阵对角化(diagonalization)时需要了解一个定理:不同特征值对应的特征向量线性无关。我们知道,一个 n 维矩阵是否可以对角化取决于其是否具有 n 个线性无关的特征向量。所以,在上面的定理的基础上可以得出结论:一个具有 n 个相互不同的特征值的 n 维矩阵必可对角化

本文的中心便是要证明该定理——不同特征值对应的特征向量线性无关。

证明

给定一个 n 维矩阵 A ,其具有 n 个不等的特征值,分别为 λ 1 , . . . , λ n \lambda_1,...,\lambda_n λ1​,...,λn​,而 x 1 , . . . , x 2 x_1,...,x_2 x1​,...,x2​ 为分别对应 n 个不等特征值的特征向量。我们需要证明这些特征向量线性无关。

先假设这些特征向量线性相关,则存在 n 个不全为零的常数( c i c_i ci​)使得如下式子成立:
c 1 x 1 + c 2 x 2 + . . . + c n x n = 0 (1) c_1x_1 + c_2x_2 +...+c_nx_n = 0 \tag{1} c1​x1​+c2​x2​+...+cn​xn​=0(1)
用矩阵 A 左乘式 ( 1 ) (1) (1) ,根据 A x i = λ i x i Ax_i = \lambda_i x_i Axi​=λi​xi​ 得:
c 1 λ 1 x 1 + c 2 λ 2 x 2 + . . . + c n λ n x n = 0 (2) c_1\lambda_1x_1 + c_2\lambda_2x_2 +...+c_n\lambda_nx_n = 0 \tag{2} c1​λ1​x1​+c2​λ2​x2​+...+cn​λn​xn​=0(2)
再用式 ( 2 ) (2) (2) 减去 λ n ∗ ( 1 ) \lambda_n * (1) λn​∗(1) ,得:
c 1 ( λ 1 − λ n ) x 1 + c 2 ( λ 2 − λ n ) x 2 + . . . + c n − 1 ( λ n − 1 − λ n ) x n − 1 = 0 (3) c_1(\lambda_1-\lambda_n)x_1 + c_2(\lambda_2-\lambda_n)x_2 + ... + c_{n-1}(\lambda_{n-1}-\lambda_n)x_{n-1} = 0 \tag{3} c1​(λ1​−λn​)x1​+c2​(λ2​−λn​)x2​+...+cn−1​(λn−1​−λn​)xn−1​=0(3)
接下来,可将 x i x_i xi​ 前面的系数 c i ( λ i − λ n ) c_i(\lambda_i-\lambda_n) ci​(λi​−λn​) 用常数 d i d_i di​ 代替,则式 ( 3 ) (3) (3) 可写成:
d 1 x 1 + d 2 x 2 + . . . + d n − 1 x n − 1 = 0 (4) d_1x_1 + d_2x_2 +...+d_{n-1}x_{n-1} = 0 \tag{4} d1​x1​+d2​x2​+...+dn−1​xn−1​=0(4)
式 ( 4 ) (4) (4) 是不是与式 ( 1 ) (1) (1) 形式一样?只是少了一个 x n x_n xn​。那么对式 ( 4 ) (4) (4) 也进行类似式 ( 1 ) (1) (1) 的处理,可得:
d 1 ( λ 1 − λ n − 1 ) x 1 + d 2 ( λ 2 − λ n − 1 ) x 2 + . . . + d n − 2 ( λ n − 2 − λ n − 1 ) x n − 2 = 0 (5) d_1(\lambda_1-\lambda_{n-1})x_1 + d_2(\lambda_2-\lambda_{n-1})x_2 + ... + d_{n-2}(\lambda_{n-2}-\lambda_{n-1})x_{n-2} = 0 \tag{5} d1​(λ1​−λn−1​)x1​+d2​(λ2​−λn−1​)x2​+...+dn−2​(λn−2​−λn−1​)xn−2​=0(5)

若是按照前面的步骤(式 ( 1 ) (1) (1) 至式 ( 3 ) (3) (3))重复进行 n − 2 n - 2 n−2 次(每次都用一个不同的单个字符代替 x i x_i xi​ 前面的系数)后,可得:
m 1 ( λ 1 − λ 3 ) x 1 + m 2 ( λ 2 − λ 3 ) x 2 = 0 (6) m_1(\lambda_1-\lambda_3)x_1 + m_2(\lambda_2-\lambda_3)x_2 = 0 \tag{6} m1​(λ1​−λ3​)x1​+m2​(λ2​−λ3​)x2​=0(6)

用 n i n_i ni​ 代替式 ( 6 ) (6) (6) 中 x i x_i xi​ 的系数,即令 n 1 = m 1 ( λ 1 − λ 3 ) n_1 = m_1(\lambda_1-\lambda_3) n1​=m1​(λ1​−λ3​), n 2 = m 2 ( λ 2 − λ 3 ) n_2 = m_2(\lambda_2-\lambda_3) n2​=m2​(λ2​−λ3​)。

再按照前面的步骤(式 ( 1 ) (1) (1) 至式 ( 3 ) (3) (3))进行一次处理,可得 n 1 ( λ 1 − λ 2 ) x 1 = 0 n_1(\lambda_1-\lambda_2)x_1=0 n1​(λ1​−λ2​)x1​=0( n 1 n_1 n1​ 为常数),由于特征向量不为零且各特征值都不相等,所以只能是 n 1 = 0 n_1 = 0 n1​=0,又因为 n 1 = m 1 ( λ 1 − λ 3 ) n_1 = m_1(\lambda_1-\lambda_3) n1​=m1​(λ1​−λ3​),所以 m 1 = 0 m_1=0 m1​=0,带入到式 ( 6 ) (6) (6) 中可得 m 2 = 0 m_2=0 m2​=0,如此往后迭代最终可得:
c i = 0 for i  = 1 , 2 , . . . , n c_i=0 \quad \text{for i } = 1,2,...,n ci​=0for i =1,2,...,n
则说明前面的假设(n 个特征向量 λ 1 , . . . , λ n \lambda_1,...,\lambda_n λ1​,...,λn​ 是线性相关)是错误的,故 矩阵不同特征值对应的特征向量线性无关 得证。

参考源

  • 《Linear Algebra and Its Applications》Gilbert Strang 著

证明:矩阵不同特征值对应的特征向量之间线性无关相关推荐

  1. matlab——求矩阵最大特征值对应的特征向量

    A=[1,1,2,3,4;1,1,1,2,3;1/2,1,1,1,2;1/3,1/2,1,1,1;1/4,1/3,1/2,1,1];%待求矩阵[x,y]=eig(A);%求矩阵的特征值和特征向量,x为 ...

  2. 证明:不同特征值对应的特征向量线性无关

    证明 设 λ 1 , . . . , λ k \lambda_1, ..., \lambda_k λ1​,...,λk​ 为方针 A n × n A^{n\times n} An×n的 k k k 个 ...

  3. 证明:对于实对称矩阵,不同特征值对应的特征向量相互正交

    前言 不同特征值对应的特征向量相互正交,是实对称矩阵的一个重要属性,而且从这个属性出发可以证明实对称矩阵的另一个属性:实对称矩阵必可相似对角化.对于一个 n 维矩阵,其可相似对角化的充分且必要条件是- ...

  4. 斐波那契数列和矩阵的特征值于特征向量的关系

    从事软件开发的人对斐波那契数列可以说在熟悉不过了,一般是学习递归算法的入门案例写在教科书中,它用递推公式表达是这个样子的: 作为一名自尊自爱的码农,看到这个公式不免既心痒又难骚,必须要安排它一下,就拿 ...

  5. 矩阵的特征值、特征向量、特征值分解、奇异值分解之间的关系

    可逆矩阵 A⋅A−1=A−1⋅A=EA\cdot A^{-1}=A^{-1}\cdot A = EA⋅A−1=A−1⋅A=E 矩阵的几何意义是对一组向量进行变换,包括方向和模长的变化.而逆矩阵表示对其 ...

  6. 矩阵的特征值和特征向量的性质

    什么是特征值和特征向量 A为一个N阶方阵,为一个向量,为一个值. 满足上述等式,则称为一个特征向量,为一个特征值 注:1.方阵才有特征值.特征向量,非方阵没有 2.特征向量 3.设,则复数范围内,A恰 ...

  7. 线代:1.6矩阵的特征值和特征向量

    文章目录 任务详解: 1.向量的内积和范数 向量的内积以及正交性 定义1: 定义2 定义3 定义4 判定矩阵A可逆的小结 2.特征值特征向量以及矩阵的相似 方阵的特征值与特征向量 定义6 本课程来自 ...

  8. 特征值与特征向量_矩阵的特征值和特征向量

    不少学习过线性代数的同学可能都有这样的疑惑,就是线性代数到底是什么?我们算的这些东西究竟有什么用?回忆起这门课来可能仅有的印象也就是矩阵.向量.还有一个特征什么来着? 线性代数是一门相对较为年轻的学科 ...

  9. 乘幂法计算矩阵主特征值和特征向量-Matlab实现

    文章目录 1.前言 2.方法介绍 3.算法步骤 4.数值实验 5.总结 6.Matlab代码 1.前言 乘幂法主要用于求实矩阵按模最大的特征值(主特征值)和相应特征向量.本文通过Matlab解决实际例 ...

最新文章

  1. 混合精度训练amp,torch.cuda.amp.autocast():
  2. pt-show-grants的用法
  3. gulp的安装和配置详解
  4. 4.大数据架构详解:从数据获取到深度学习 --- 数据获取
  5. 对于xfire动态调用webservice接口
  6. Python数学建模 缺失值与异常值处理
  7. scMRA:一种健壮的深度学习方法,可以用多个参考数据集注释scRNA-seq数据
  8. 专注于win7官网,专注win7系统安装
  9. 方维直播源码:修复BUG完整版(附代码)
  10. 红帽子linux2017安装,Firefox 49发布 - 在RedHat和Debian系统上安装
  11. 微信清除自带浏览器的缓存
  12. Ink脚本语言学习笔记(四)
  13. protues仿真51单片机教程
  14. Intrinsics函数Tips与踩坑
  15. mac android studio Waiting for application to come online解决方案
  16. 大二文本分词过滤分类实验总结
  17. NR Polar Code 四 译码1(SC: N=2,N=4)
  18. 计算机网络安全技术保护措施,计算机网络安全技术保护措施
  19. Benchmark(基准测试)初相识
  20. xadmin自定义页面

热门文章

  1. VS中无法解析的外部命令的解决办法
  2. Half a million dollars is or are a lot of money?
  3. 什么是克鲁斯卡尔算法?
  4. 安全集成服务资质是什么都有哪些等级?申请安全集成服务资质认证有什么好处?
  5. 服务器客户端证书,客户端如何验证HTTPS服务端证书信息
  6. 框架的概念框架(Framework)
  7. 云图雅集—优美的文章段落
  8. 关于“#define REG_MEM_BASE (*(volatile unsigend long *)(PA_BAES + 0x00000050))”语句的解析
  9. 游戏测试内存泄露相关方案
  10. 操作系统存储器管理管理试验