下面的一系列分解,涉及了线性代数中的各个重要知识点:

关于求解方程组的分解:

  • Ch1[矩阵乘法角度] 矩阵 A \mathbf A A=列向量矩阵 C \mathbf C C和行向量矩阵 R \mathbf R R的乘积
  • Ch2[消元解方程组] LU分解
  • Ch3[施密特正交化] QR分解:将列向量线性无关的矩阵 A \mathbf A A,转为正交矩阵 Q \mathbf Q Q,且 R \mathbf R R必为上三角阵

关于特征值/特征向量/奇异值的分解:

  • Ch4[相似对角化] 得到特征值和特征向量后,矩阵 A \mathbf A A相似于以特征值为对角元的对角阵 Λ \mathbf \Lambda Λ
  • Ch5[对称矩阵] 对称矩阵 S \mathbf S S具有正交的特征向量,对角化得到 S = Q Λ Q T \mathbf S=\boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^T S=QΛQT
  • CH6[奇异值分解(“广义对角化”操作)] 任意矩阵可分解为 A = U Σ V T \mathbf A=\boldsymbol{U} \boldsymbol{\Sigma} \boldsymbol{V}^T A=UΣVT,其中 Σ \boldsymbol{\Sigma} Σ中左上角的对角阵对应将行空间中的标准正交基映射到列空间的标准正交基( A v i = σ i u i \mathbf {A}\mathbf v_i=\sigma_i \mathbf u_i Avi​=σi​ui​,这类似于找出特征值和特征向量); Σ \boldsymbol{\Sigma} Σ中其余部分为0元素,对应 A \mathbf {A} A的零空间中的一组正交基

Ch4. 特征值、特征向、相似对角化、谱分解

特征值与特征向量

对于任意方阵 A \mathbf A A,将其理解为线性变换,变换后有些向量的方向不被改变,即特征向量 A x i = λ i x i \mathbf A\mathbf x_i=\lambda_i\mathbf x_i Axi​=λi​xi​

特征向量的性质:

  • A − 1 x = 1 λ x \mathbf A^{-1}\mathbf x=\frac{1}{\lambda}\mathbf x A−1x=λ1​x,注意,若矩阵可逆,此处必有 λ ≠ 0 \lambda\neq 0 λ​=0(若 λ = 0 \lambda= 0 λ=0则 A \mathbf A A是降维变换,不可逆。或者说 A x = λ x = 0 \mathbf A\mathbf x=\lambda\mathbf x=0 Ax=λx=0即存在零空间,则矩阵不满秩,不可逆)
  • 矩阵 A B \mathbf A\mathbf B AB和矩阵 B A \mathbf B\mathbf A BA具有相同的非零特征值(但是注意, A B \mathbf A\mathbf B AB的特征值不等于 A \mathbf A A特征值的 × \times × B \mathbf B B的特征值, A + B \mathbf A+\mathbf B A+B的特征值不等于 A \mathbf A A特征值的 + + + B \mathbf B B的特征值,因为 A \mathbf A A和 B \mathbf B B两个矩阵的特征向量很可能不同)

证明: B A = B ( A B ) B − 1 \mathbf B\mathbf A=\mathbf B(\mathbf A\mathbf B)\mathbf B^{-1} BA=B(AB)B−1,即 A B \mathbf A\mathbf B AB相似于 B A \mathbf B\mathbf A BA,特征值相同
当然,前提是 A \mathbf A A和 B \mathbf B B可逆,这就是为什么强调“非零特征值”(如果特征值取0,则不存在逆矩阵了)

引入特征向量的好处:

  1. 容易计算矩阵的幂: A k x = λ k x \mathbf A^k\mathbf x=\lambda^k\mathbf x Akx=λkx

计算差分方程 u k + 1 = A u k \mathbf{u}_{k+1}=\boldsymbol{A} \mathbf{u}_{k} uk+1​=Auk​的解 u k = A k u 0 \mathbf{u}_{k}=\boldsymbol{A}^k \mathbf{u}_{0} uk​=Aku0​时,
可以先拆分 u 0 = c 1 x 1 + c 2 x 2 + … + c n x n \mathbf{u}_{0}=c_{1} \mathbf{x}_{1}+c_{2} \mathbf{x}_{2}+\ldots+c_{n} \mathbf{x}_{n} u0​=c1​x1​+c2​x2​+…+cn​xn​,则 A k u 0 = c 1 λ 1 k x 1 + c 2 λ 2 k x 2 + … + c n λ n k x n \boldsymbol{A}^k \mathbf{u}_{0}=c_{1} \lambda_{1}^{k} \mathbf{x}_{1}+c_{2} \lambda_{2}^{k} \mathbf{x}_{2}+\ldots+c_{n} \lambda_{n}^{k} \mathbf{x}_{n} Aku0​=c1​λ1k​x1​+c2​λ2k​x2​+…+cn​λnk​xn​

  1. 容易计算矩阵的指数: e A t x = e λ t x e^{\boldsymbol{A} t} \mathbf{x}=e^{\lambda t} \mathbf{x} eAtx=eλtx(ps. 这里的指数概念,根据级数来定义:
    ( I + A t + 1 2 ( A t ) 2 + ⋯ ) x = ( 1 + λ t + 1 2 ( λ t ) 2 + ⋯ ) x \left(I+A t+\frac{1}{2}(A t)^{2}+\cdots\right) \boldsymbol{x}=\left(1+\lambda t+\frac{1}{2}(\lambda t)^{2}+\cdots\right) \boldsymbol{x} (I+At+21​(At)2+⋯)x=(1+λt+21​(λt)2+⋯)x)

计算微分方程 d u d t = A u \frac{d \mathbf{u}}{d t} =\boldsymbol{A} \mathbf{u} dtdu​=Au的解 u ( t ) = e A t u ( 0 ) \mathbf{u}(\mathrm{t}) =e^{\boldsymbol{A} t} \mathbf{u}(0) u(t)=eAtu(0)时,
可以先拆分 u ( 0 ) = c 1 x 1 + c 2 x 2 + … + c n x n \mathbf{u}(0)=c_{1} \mathbf{x}_{1}+c_{2} \mathbf{x}_{2}+\ldots+c_{n} \mathbf{x}_{n} u(0)=c1​x1​+c2​x2​+…+cn​xn​,则 e A t u ( 0 ) = c 1 e λ 1 t x 1 + c 2 e λ 2 t x 2 + . . . + c n e λ n t x n e^{\boldsymbol{A} t} \mathbf{u}(0)=c_{1} e^{\lambda_{1} t} \mathbf{x}_{1}+c_{2} e^{\lambda_{2} t} \mathbf{x}_{2}+...+c_{n} e^{\lambda_{n} t} \mathbf{x}_{n} eAtu(0)=c1​eλ1​tx1​+c2​eλ2​tx2​+...+cn​eλn​txn​

相似矩阵

相似矩阵 A ∼ B \mathbf A \sim \mathbf B A∼B,满足 B = M − 1 A M \mathbf B=\mathbf {M^{-1}AM} B=M−1AM

注意,随着可逆矩阵 M \mathbf M M取值不同,可以得到一系列的(无数个)相似矩阵,但它们是同一种变换在不同坐标系下的表现形式,它们的的特征值、迹、行列式完全相同(这些都是相似不变量)

验证:相似的矩阵,特征值相同
假设 B x = λ x \mathbf B\mathbf x=\lambda \mathbf x Bx=λx,那么 M − 1 A M x = λ x \mathbf {M^{-1}AM}\mathbf x=\lambda \mathbf x M−1AMx=λx,即 A ( M x ) = λ ( M x ) \mathbf A(\mathbf {M}\mathbf x)=\lambda (\mathbf {M}\mathbf x) A(Mx)=λ(Mx)
A \mathbf A A的特征值仍为 λ \lambda λ,特征向量为 M x \mathbf {M}\mathbf x Mx

由于相似矩阵有相同特征值,只要为 B = M − 1 A M \mathbf B=\mathbf {M^{-1}AM} B=M−1AM找出合适的 M \mathbf {M} M,就能保证 A \mathbf A A的相似矩阵 B \mathbf B B为上三角矩阵/对角矩阵(特征值就位于对角线上),从而轻易地找出 A \mathbf A A的特征值,这就是为什么需要相似对角化

相似对角化

对于单纯矩阵 A \mathbf A A,其特征向量满足 A x i = λ i x i \mathbf A\mathbf x_i=\lambda_i\mathbf x_i Axi​=λi​xi​,矩阵形式为 A X = X Λ \mathbf A\mathbf X=\mathbf X\mathbf \Lambda AX=XΛ
如果有 n n n个无关的特征向量(即 X \mathbf X X可逆),则 A \mathbf A A可被相似对角化为 A = X Λ X − 1 \mathbf A=\mathbf X\mathbf \Lambda\mathbf X^{-1} A=XΛX−1 A = X Λ X − 1 = [ v 1 v 2 ⋯ v n ] [ λ 1 λ 2 ⋱ λ n ] [ w 1 T w 2 T ⋮ w n T ] \mathbf A=\mathbf X\mathbf \Lambda\mathbf X^{-1}=\left[\begin{array}{llll} \mathbf{v}_{1} & \mathbf{v}_{2} & \cdots & \mathbf{v}_{\mathrm{n}} \end{array}\right]\left[\begin{array}{llll} \lambda_{1} & & & \\ & \lambda_{2} & & \\ & & \ddots & \\ & & & \lambda_{\mathrm{n}} \end{array}\right]\left[\begin{array}{c} \mathbf{w}_{1}^{T} \\ \mathbf{w}_{2}^{T} \\ \vdots \\ \mathbf{w}_{\mathrm{n}}^{T} \end{array}\right] A=XΛX−1=[v1​​v2​​⋯​vn​​]⎣⎢⎢⎡​λ1​​λ2​​⋱​λn​​⎦⎥⎥⎤​⎣⎢⎢⎢⎡​w1T​w2T​⋮wnT​​⎦⎥⎥⎥⎤​

  • 其中, X \mathbf X X矩阵的列对应 n n n个线性无关特征向量, Λ \mathbf \Lambda Λ给出相应的特征值

相似对角化的应用:
首先,便于我们研究矩阵的幂: A n = X Λ n X − 1 \mathbf A^n=\mathbf X\mathbf \Lambda^n\mathbf X^{-1} An=XΛnX−1(特征值变为 λ n \lambda^n λn,特征向量不变)
推论:当 ∣ λ ∣ < 1 |\lambda|<1 ∣λ∣<1, n → ∞ n\rightarrow\infty n→∞时 λ → 0 \lambda\rightarrow 0 λ→0,对应的那些特征向量“消失”,由此可以进一步研究差分方程 u k = A k u 0 \mathbf u_k=\mathbf A^k\mathbf u_0 uk​=Aku0​的稳态问题


秩1矩阵是构造复杂矩阵的基石,同样可以从秩1矩阵的角度来理解上述的分解:

回顾之前内容:秩1矩阵只有一行/一列是线性无关的,对应了 A = C R \mathbf A=\mathbf C\mathbf R A=CR中, C \mathbf C C和 R \mathbf R R退化为列向量和行向量
此时,矩阵乘法理解为“列向量乘以行向量(外积)(而不是行向量乘以列向量),结果是秩1矩阵 b i c i ∗ b_ic_i^* bi​ci∗​

再次用“列向量乘以行向量=秩1矩阵”的观点来看相似对角化,则有 A = ( X Λ ) X − 1 = [ λ 1 v 1 λ 2 v 2 ⋯ λ n v n ] [ w 1 T w 2 T ⋮ w n T ] = λ 1 v 1 w 1 T + . . . + λ n v n w n T \mathbf A=(\mathbf X\mathbf \Lambda)\mathbf X^{-1}=\left[\begin{array}{llll} \lambda_1\mathbf{v}_{1} & \lambda_2\mathbf{v}_{2} & \cdots & \lambda_n\mathbf{v}_{\mathrm{n}} \end{array}\right]\left[\begin{array}{c} \mathbf{w}_{1}^{T} \\ \mathbf{w}_{2}^{T} \\ \vdots \\ \mathbf{w}_{\mathrm{n}}^{T} \end{array}\right]=\lambda_1\mathbf{v}_{1}\mathbf{w}_{1}^T+...+\lambda_n\mathbf{v}_{n}\mathbf{w}_{n}^T A=(XΛ)X−1=[λ1​v1​​λ2​v2​​⋯​λn​vn​​]⎣⎢⎢⎢⎡​w1T​w2T​⋮wnT​​⎦⎥⎥⎥⎤​=λ1​v1​w1T​+...+λn​vn​wnT​
这正是矩阵的谱分解,其中每个秩1矩阵 A i = v i w i T \mathbf A_i=\mathbf{v}_{i}\mathbf{w}_{i}^T Ai​=vi​wiT​都是幂等矩阵(原因:由 X − 1 X = I \mathbf X^{-1}\mathbf X=\mathbf I X−1X=I知 w T v = 1 \mathbf w^{T}\mathbf v=1 wTv=1,故 A i 2 = A i \mathbf A_i^2=\mathbf A_i Ai2​=Ai​)

注意,仅对于方阵有“特征值”的概念,对于矩形的矩阵,“特征值”推广为奇异值

Ch5. 对称矩阵与 A T A \mathbf A^T\mathbf A ATA

对称矩阵 S \mathbf{S} S

对称矩阵 S \mathbf{S} S的特征:

  • 特征值为实数
  • 拥有一套正交的特征向量
    这里隐含的关键点是:即使有些特征值重复,仍有足够数量的无关特征向量
    推论(谱定理):对称矩阵的相似对角化结果为 S = Q Λ Q − 1 = Q Λ Q T \boldsymbol{S}=\boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^{-1}=\boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^{T} S=QΛQ−1=QΛQT

由于特征向量正交,故 Q \boldsymbol{Q} Q为正交矩阵,进一步导致了 Q − 1 \boldsymbol{Q}^{-1} Q−1可写成 Q T \boldsymbol{Q}^{T} QT(标准正交基满足 Q T Q = I \boldsymbol{Q}^{T}\boldsymbol{Q}=\boldsymbol{I} QTQ=I)

理解 [对称矩阵有实特征值]:

  • 例如, S = [ 0 1 1 0 ] = [ 1 1 1 − 1 ] [ 1 0 0 1 ] [ 1 1 1 − 1 ] = Q Λ Q T \boldsymbol{S}=\begin{bmatrix} 0 &1 \\ 1 &0\end{bmatrix}=\begin{bmatrix} 1 &1 \\ 1 &-1\end{bmatrix}\begin{bmatrix} 1 &0 \\ 0 &1\end{bmatrix}\begin{bmatrix} 1 &1 \\ 1 &-1\end{bmatrix}=\boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^{T} S=[01​10​]=[11​1−1​][10​01​][11​1−1​]=QΛQT
    这个变换效果是将x轴换到y轴,y轴换到x轴
    特征向量是两条斜向的“对角线”即 [ 1 1 ] \begin{bmatrix} 1 \\ 1\end{bmatrix} [11​]和 [ 1 − 1 ] \begin{bmatrix} 1 \\ -1\end{bmatrix} [1−1​]

  • 相比之下,任何反对称矩阵都没有实特征向量/实特征值
    例如 A = [ 0 1 − 1 0 ] \boldsymbol{A}=\begin{bmatrix} 0 &1 \\ -1 &0\end{bmatrix} A=[0−1​10​]对应于90度旋转的变换,故特征值/特征向量都为虚数


再次用“列向量乘以行向量=秩1矩阵”的观点来看,有 A = ( Q Λ ) Q − 1 = [ λ 1 q 1 λ 2 q 2 ⋯ λ n q n ] [ q 1 T q 2 T ⋮ q n T ] = λ 1 q 1 q 1 T + . . . + λ n q n q n T \mathbf A=(\mathbf Q\mathbf \Lambda)\mathbf Q^{-1}=\left[\begin{array}{llll} \lambda_1\mathbf{q}_{1} & \lambda_2\mathbf{q}_{2} & \cdots & \lambda_n\mathbf{q}_{\mathrm{n}} \end{array}\right]\left[\begin{array}{c} \mathbf{q}_{1}^{T} \\ \mathbf{q}_{2}^{T} \\ \vdots \\ \mathbf{q}_{\mathrm{n}}^{T} \end{array}\right]=\lambda_1\mathbf{q}_{1}\mathbf{q}_{1}^T+...+\lambda_n\mathbf{q}_{n}\mathbf{q}_{n}^T A=(QΛ)Q−1=[λ1​q1​​λ2​q2​​⋯​λn​qn​​]⎣⎢⎢⎢⎡​q1T​q2T​⋮qnT​​⎦⎥⎥⎥⎤​=λ1​q1​q1T​+...+λn​qn​qnT​这正是谱定理,其中 q i q i T \mathbf q_i\mathbf q_i^T qi​qiT​为秩1矩阵

对称方阵 A T A \mathbf A^T\mathbf A ATA

对于任意的 A \mathbf A A, A T A \mathbf A^T\mathbf A ATA必为对称方阵: ( A T A ) T = A T A (\mathbf A^T\mathbf A)^T=\mathbf A^T\mathbf A (ATA)T=ATA,并且 A T A \mathbf A^T\mathbf A ATA至少为半正定矩阵( A \mathbf A A列满秩时则为正定的)

A T A \mathbf A^T\mathbf A ATA同样具有半正定矩阵的所有性质

  • 所有特征值 λ ≥ 0 \lambda\geq 0 λ≥0
  • 对任意 x \mathbf x x, x T ( A T A ) x ≥ 0 \mathbf x^T(\mathbf A^T\mathbf A)\mathbf x\geq 0 xT(ATA)x≥0

正定矩阵

对称矩阵具有实特征值和正交的特征向量;
正定矩阵是“最好的”一类对称矩阵,它们不仅是对称矩阵,还具有实数特征值

下面的5个等价判据,满足任何一个,即为正定矩阵:

  1. 原始定义:二次型(或者说“能量”) x T A x > 0 ( x ≠ 0 ) \mathbf{x}^{T} \boldsymbol{A} \mathbf{x}>0 \quad(\mathbf{x}\neq 0) xTAx>0(x​=0)
  2. 所有特征值为正实数,即 λ > 0 \lambda>0 λ>0
  3. 矩阵左上角所有子矩阵(顺序主子是)的行列式全为正
  4. 对矩阵消元后,所有主元pivot全为正实数
  5. 正定矩阵 A \boldsymbol{A} A可被分解为 A = M T M \boldsymbol{A}=\boldsymbol{M}^T\boldsymbol{M} A=MTM,其中 M \boldsymbol{M} M列向量线性无关

ps. 正定/负定/半正定阵,都是在二次型部分引入的,谈论矩阵是“正定阵”的大前提:矩阵必须首先是一个实对称/复Hermite阵

推论:若 A \boldsymbol{A} A和 B \boldsymbol{B} B为正定矩阵,则

  • A − 1 \boldsymbol{A}^{-1} A−1为正定矩阵,因为其特征值 1 / λ 1/\lambda 1/λ都为正实数
  • A + B \boldsymbol{A+B} A+B为正定矩阵,因为 x T ( A + B ) x = x T A x + x T B x > 0 ( x ≠ 0 ) \mathbf{x}^{T} (\boldsymbol{A+B}) \mathbf{x}=\mathbf{x}^{T} \boldsymbol{A} \mathbf{x}+\mathbf{x}^{T} \boldsymbol{B} \mathbf{x}>0 \quad(\mathbf{x}\neq 0) xT(A+B)x=xTAx+xTBx>0(x​=0)
  • Q T A − 1 Q \boldsymbol Q^T\boldsymbol{A}^{-1}\boldsymbol Q QTA−1Q( Q \boldsymbol Q Q为正交阵,整个矩阵必为对称的)为正定矩阵
    理解1: Q T A − 1 Q \boldsymbol Q^T\boldsymbol{A}^{-1}\boldsymbol Q QTA−1Q与 A \boldsymbol{A} A相似,特征值相同,都为正实数
    理解2:验证 x T ( Q T A − 1 Q ) x = ( Q x ) T A ( Q x ) > 0 ( x ≠ 0 ) \mathbf{x}^{T}(\boldsymbol Q^T\boldsymbol{A}^{-1}\boldsymbol Q)\mathbf{x}=(\boldsymbol Q\mathbf{x})^T\boldsymbol{A}(\boldsymbol Q\mathbf{x})>0 \quad(\mathbf{x}\neq 0) xT(QTA−1Q)x=(Qx)TA(Qx)>0(x​=0)

用“列向量乘以行向量=秩1矩阵”的观点来看,有(正定阵仍为对称阵,与对称阵的分解相同) A = Q Λ Q T = λ 1 q 1 q 1 T + . . . + λ n q n q n T \mathbf A=\mathbf Q\mathbf \Lambda\mathbf Q^{T}=\lambda_1\mathbf{q}_{1}\mathbf{q}_{1}^T+...+\lambda_n\mathbf{q}_{n}\mathbf{q}_{n}^T A=QΛQT=λ1​q1​q1T​+...+λn​qn​qnT​其中 q i q i T \mathbf q_i\mathbf q_i^T qi​qiT​为秩1矩阵

半正定矩阵

半正定矩阵(Positive Semi-Definite)是正定矩阵和负定矩阵的“边界”

半正定矩阵满足:

  1. x T A x ≥ 0 ( x ≠ 0 ) \mathbf{x}^{T} \boldsymbol{A} \mathbf{x}\geq0 \quad(\mathbf{x}\neq 0) xTAx≥0(x​=0)
  2. 所有特征值为非负实数,即 λ ≥ 0 \lambda\geq0 λ≥0(存在0特征值)
  3. 行列式为0(不可逆/奇异矩阵)
  4. 正定矩阵 A \boldsymbol{A} A可被分解为 A = M T M \boldsymbol{A}=\boldsymbol{M}^T\boldsymbol{M} A=MTM,其中 M \boldsymbol{M} M列向量可以线性

例如 [ 1 1 1 1 1 1 1 1 1 ] \begin{bmatrix} 1 & 1 & 1\\ 1 & 1 & 1\\1 & 1 &1\end{bmatrix} ⎣⎡​111​111​111​⎦⎤​为一个半正定矩阵,其特征值为 3 , 0 , 0 3,0,0 3,0,0(因为矩阵秩为1,故只有一个非零特征值,其余两个特征值为0,根据迹=3可知,非零特征值为3)
另外,用“列向量乘以行向量=秩1矩阵”的观点来看,有 A = Q Λ Q T = λ 1 q 1 q 1 T + λ 2 q 2 q 2 T + λ 3 q 3 q 3 T \mathbf A=\mathbf Q\mathbf \Lambda\mathbf Q^{T}=\lambda_1\mathbf{q}_{1}\mathbf{q}_{1}^T+\lambda_2\mathbf{q}_{2}\mathbf{q}_{2}^T+\lambda_3\mathbf{q}_{3}\mathbf{q}_{3}^T A=QΛQT=λ1​q1​q1T​+λ2​q2​q2T​+λ3​q3​q3T​此时 λ 2 = λ 3 = 0 \lambda_2=\lambda_3=0 λ2​=λ3​=0,只剩下第一项,即
[ 1 1 1 1 1 1 1 1 1 ] = 3 [ 1 / 3 1 / 3 1 / 3 ] [ 1 / 3 1 / 3 1 / 3 ] \left[\begin{array}{lll} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{array}\right]=3\left[\begin{array}{l} 1 / \sqrt{3} \\ 1 / \sqrt{3} \\ 1 / \sqrt{3} \end{array}\right]\left[\begin{array}{lll} 1 / \sqrt{3} & 1 / \sqrt{3} & 1 / \sqrt{3}] \end{array}\right. ⎣⎡​111​111​111​⎦⎤​=3⎣⎡​1/3 ​1/3 ​1/3 ​​⎦⎤​[1/3 ​​1/3 ​​1/3 ​]​

Ch6. 奇异值分解SVD

上面说过,特征值和特征向量由相似对角化给出
然而,仅方阵有“特征值”的概念;且 相似对角化 要求有足够的特征向量(并非每个矩阵都有足够的无关特征向量)
对于更一般的矩阵,“特征值”推广为奇异值

奇异值分解 A = U Σ V T \boldsymbol{A} =\boldsymbol{U} \boldsymbol{\Sigma} \boldsymbol{V}^{T} A=UΣVT(正交矩阵x对角阵x正交矩阵),其中:

  • U \boldsymbol{U} U保存了左奇异向量; V \boldsymbol V V保存了右奇异向量,注意这是两个不同的奇异向量集,或者说 两组单位正交基(与相似对角化的情况不同)
  • 特征值: A x = λ x \mathbf A\mathbf x=\lambda\mathbf x Ax=λx,变换中特性向量被单纯拉伸;
    奇异值: A v i = σ i u i \mathbf {A}\mathbf v_i=\sigma_i \mathbf u_i Avi​=σi​ui​,变换中奇异向量被旋转+拉伸+旋转

再次用“列向量乘以行向量=秩1矩阵”的观点来看

  • 对于一般矩阵,可以拆分为多个秩1矩阵 即 b i c i ∗ b_ic_i^* bi​ci∗​ 叠加得到结果
  • 对于对称矩阵, S = Q Λ Q T \boldsymbol{S}=\boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^{T} S=QΛQT可以视为将对称矩阵拆分为一系列秩1矩阵 λ i q i q i T \lambda_i\mathbf q_i\mathbf q_i^T λi​qi​qiT​的和
  • 对于更一般的矩阵, A = U Σ V T \mathbf{A=U \Sigma}\mathbf V^T A=UΣVT可以视为将对称矩阵拆分为一系列秩1矩阵 σ i u i v i T \sigma_i\mathbf u_i\mathbf v_i^T σi​ui​viT​的和
    其中 σ i \sigma_i σi​为奇异值,是特征值的推广

SVD的应用:用低秩矩阵近似复杂矩阵


SVD给出了矩阵的重要特征

  • 利用SVD,我们将整个矩阵拆分一系列秩1矩阵 σ i u i v i T \sigma_i\mathbf u_i\mathbf v_i^T σi​ui​viT​的和
  • 奇异值 σ i \sigma_i σi​越大,相应的秩1矩阵越重要
    从而,我们适当保留前 k k k个最大的奇异值 σ 1 . . . σ k \sigma_1...\sigma_k σ1​...σk​,它们的和是低秩的矩阵,但却可以很好地接近原来的复杂矩阵
  • 此外,我们还用奇异值 σ i \sigma_i σi​定义矩阵的范数Norm,从而衡量矩阵的大小

随机数值线性代数

当矩阵过大、不便于处理时,对矩阵进行随机采样,从而处理大规模线性代数问题,称为随机数值线性代数RandNLA(Randomized Numerical Linear Algebra)

引用:MIT线性代数_2020年更新讲解课程
资源指引:

线性代数学习笔记11-2:总复习Part2(相似对角化、对称矩阵、奇异值分解SVD)相关推荐

  1. 线性代数学习笔记11-3:总复习(习题)

    Eg1 矩阵乘法和齐次方程 对于A=[v1v2v3]A=[\mathbf{v}_1 \mathbf{v}_2 \mathbf{v}_3]A=[v1​v2​v3​],有方程Ax=v1−v2+v3\mat ...

  2. 线性代数学习笔记——第六十四讲——相似对角化的判定(1)

    1. 方阵与对角矩阵相似的充分必要条件是方阵有n个线性无关的特征向量 2. 若矩阵存在若干个互异的特征向量,则这些特征向量线性无关 3. 若矩阵的特征值互异,则其与对角矩阵相似 4. 矩阵的互异特征值 ...

  3. HALCON 20.11:深度学习笔记(11)---目标检测

    HALCON 20.11:深度学习笔记(11)---目标检测 HALCON 20.11.0.0中,实现了深度学习方法. 本章讲解了如何使用基于深度学习的对象检测. 通过对象检测,我们希望在图像中找到不 ...

  4. 线性代数学习笔记(二十九)——方程组解的结构(一)

    停更2年多了,做事得有始有终,继续更新... 本篇笔记回顾了线性方程组解的三种情况,并讨论了齐次线性方程组解的结构,并介绍了齐次线性方程组解的相关性质.其中重点讨论了基础解系定义,以及基础解系的求法和 ...

  5. 线性代数学习笔记(二十二)——向量间的线性关系(二)

    本篇笔记首先介绍了线性相关和线性无关的概念,关键是找到一组不全为零相关系数使得等成立:然后重点介绍了一些重要的结论,以及向量组线性相关和线性无关的几个充要条件. 1 线性相关与线性无关 线性相关:设 ...

  6. 线性代数学习笔记10-4:左右逆、伪逆/M-P广义逆(从四个子空间和SVD角度理解)

    下面讨论m×nm\times nm×n的秩为rrr的矩阵 对于不同情况,讨论逆矩阵 两侧逆矩阵 2-sided inverse 这也是一般所说的"逆矩阵"的含义 方阵A\bolds ...

  7. SpringMVC:学习笔记(11)——依赖注入与@Autowired

    SpringMVC:学习笔记(11)--依赖注入与@Autowired 使用@Autowired 从Spring2.5开始,它引入了一种全新的依赖注入方式,即通过@Autowired注解.这个注解允许 ...

  8. Hadoop学习笔记—11.MapReduce中的排序和分组

    Hadoop学习笔记-11.MapReduce中的排序和分组 一.写在之前的 1.1 回顾Map阶段四大步骤 首先,我们回顾一下在MapReduce中,排序和分组在哪里被执行: 从上图中可以清楚地看出 ...

  9. 台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network

    台大李宏毅Machine Learning 2017Fall学习笔记 (11)Convolutional Neural Network 本博客主要整理自: http://blog.csdn.net/x ...

最新文章

  1. 当顶流厂商谈论智能手表,他们到底在谈论什么
  2. ios图像处理第2部分:核心图形,核心图像,GPUImage
  3. python 投票脚本_使用Python脚本拉取2014 CSDN博客之星投票情况
  4. MySQL的又一神器-锁,MySQL面试必备
  5. 华为p40鸿蒙系统价格有好高,鸿蒙系统版本华为P50新机的曝光,华为P40处境悲惨价格骤降...
  6. 数据有了,如何构建数据资产?
  7. Petalinux 2018.2 for Xilinx
  8. qq文件对方接收后一定会有提示吗_QQ要增加消息已读功能,你是否赞成?
  9. linux修改文件权限的命令_Linux基础文件权限管理
  10. Linux 桌面进化史
  11. 用AI算法分析光影看到盲点:这项MIT新研究偷学到二娃技能
  12. Python Cookbook(第3版)pdf
  13. 【路径规划】基于matlab GUI粒子群算法机器人路径规划动画演示(手动设障)【含Matlab源码 924期】
  14. 敏感性分析数学建模方法(敏感性分析数学建模模型)
  15. 【读书笔记->统计学】05-02 “概率”的整体影响-随机变量的线性变换、独立观测值概念简介
  16. vue设置页面滚动高度_vue 解决无法设置滚动位置的问题
  17. 嵌入式C语言之零碎知识
  18. DataX oracle同步mysql(全量和增量)
  19. 一起来分解一个Netty应用
  20. Java根据奖品权重计算中奖概率实现抽奖(适用于砸金蛋、大转盘等抽奖活动)

热门文章

  1. matplotlib之pyplot模块——获取或设置坐标轴刻度及标签(xticks、yticks)
  2. 安卓手机 ADB 操作指令
  3. S32K144调试记录(二)
  4. 硬盘坏了,如何检测与修复。
  5. 局域计算机网络,【计算机网络】局域网小知识点
  6. filter java exclude_Filter中排除对指定URL的过滤
  7. 【Rust 日报】2021-11-11 保持冷静,学习Rust,我们很快就会在Linux中更多的看到这种语言...
  8. 自动反冲洗叠片过滤器
  9. Python分析一下双色球,中大奖指日可待
  10. pba mode ( path based analysis for sta )