【线性代数】矩阵、向量、行列式、特征值与特征向量(掌握这些概念一篇文章就够了)
在数学领域中,线性代数是一门十分有魅力的学科,首先,它不难学;其次,它能广泛应用于现实生活中;另外,在机器学习越来越被重视的现在,线性代数也能算得上是一个优秀程序员的基本素养吧?
一、线性代数的入门知识
很多人在大学学习线性代数时,国内教材书上大多一开始就是行列式的表示、计算、性质等等东西,让人看得云里雾里,一头雾水,然后要花很多时间才大概知道线性代数是个什么东西。本文不提书上晦涩难懂的内容,尽量用大白话来阐述我对线性代数的浅显理解。
(一)矩阵
1、矩阵的表示
在中学的时候,我们会经常看到这样子的方程组:
\begin{cases} 2x&-&y&=&0\\-4x&+&2y&=&0\\\tag{1} \end{cases}
\begin{cases} 2x&+&3y&+&z&=&6\\x&-&y&+&2z&=&-1\\x&+&2y&-&z&=&5 \end{cases}
\begin{cases} a_{11}x_1&+&a_{12}x_2&+&\cdots&+a_{1n}x_n&=&b_1\\a_{21}x_1&+&a_{22}x_2&+&\cdots&+a_{2n}x_n&=&b_2\\a_{31}x_1&+&a_{32}x_2&+&\cdots&+a_{3n}x_n&=&b_3\\&&&&\vdots\\a_{m1}x_1&+&a_{m2}x_2&+&\cdots&+a_{mn}x_n&=&b_m& \end{cases}
看到这样子的方程组,不由感到十分怀念。不过有没有这种感想,当年解三元一次方程组的时候,特别烦,消元后要抄一遍,代入后又抄一遍,特别麻烦。于是数学家发明了矩阵,把方程组中所有系数写到了一个框里面,把所有未知数写到第二个框里,把所有等式右边的值写到第三个框里。
\left[\begin{matrix}a_{11} & a_{12} & a_{13} & \cdots & a_{1n} \\a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\a_{31} & a_{32} & a_{33} & \cdots & a_{3n} \\\vdots & \vdots & \vdots && \vdots\\a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn}\end{matrix}\right]\left[\begin{matrix}x_1 \\x_2 \\x_3 \\\vdots \\x_n\end{matrix}\right]=\left[\begin{matrix}b_1 \\b_2 \\b_3 \\\vdots \\b_m\end{matrix}\right]\tag{2}
比如方程组 (1) 也可表示为:
\left[\begin{matrix}2 & -1 \\-4 & 2\end{matrix}\right]\left[\begin{matrix}x_1 \\x_2\end{matrix}\right]=\left[\begin{matrix}0 \\0\end{matrix}\right]
观察 (2) 式不难发现,复杂的方程组用矩阵表示后,还是很复杂,所以可以把 (2) 式更加简洁地表示成增广矩阵:
\left[\begin{array}{ccccc|c}a_{11} & a_{12} & a_{13} & \cdots & a_{1n} & b_1 \\a_{21} & a_{22} & a_{23} & \cdots & a_{2n} & b_2 \\a_{31} & a_{32} & a_{33} & \cdots & a_{3n} & b_3 \\\vdots & \vdots & \vdots && \vdots\\a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn} & b_m \end{array}\right]
同理,比如方程组 (1) 也可表示为增广矩阵:
\left[\begin{array}{cc|c}2 & -1 & 0 \\-4 & 2 & 0\end{array}\right]\tag{3}
特别地,当方程组的等式右边全为0,即 bi b_i=0,其中i=1,2,3…n时,方程组为齐次线性方程组,增广矩阵可直接表示成系数矩阵。比如增广矩阵 (3) 可直接表示成:
\left[\begin{matrix}2 & -1 \\-4 & 2\end{matrix}\right]
我们称,方程组的等式右边全为0的方程组为齐次线性方程组,否则为非齐次线性方程组。
2、矩阵的解方程组
(1)齐次线性方程组
来回顾一下这个方程组:
\begin{cases} 2x&-&y&=&0\\-4x&+&2y&=&0\\\tag{1} \end{cases}
等式右边全为0,所以把这个方程组写成矩阵形式:
A=\left[\begin{matrix}2 & -1 \\-4 & 2\end{matrix}\right]
要解这个方程组,当然使用消元法,不同于中学的是直接在矩阵里面消元:
\left[\begin{matrix}2 & -1 \\-4 & 2\end{matrix}\right]\underline{“第一行的2倍加到第二行,得”}\left[\begin{matrix}2 & -1 \\0 & 0\end{matrix}\right]
看到消元后的新矩阵是不是觉得很直观,如果你你把新矩阵还原成方程组的形式,有:
\begin{cases} 2x&-&y&=&0&\\0x&+&0y&=&0&\\ \end{cases} \Rightarrow 2x-y=0
仔细观察可发现,原本有两个式子的方程组经过消元后,变成了只有一个方程组。这种情况在中学时,无论做多少题都不会遇到的,因为在中学里,学的初等数学方程组都是有唯一解的。而在线性代数中,我们把这种情况成为方程组系数矩阵的秩为1,记为r(A)=1。当矩阵的秩小于未知数的个数时,方程组有无数个解;当矩阵的秩等于未知数的个数时,方程组只有零解。
由于方程组(1)有两个未知数,而r(A)=1<2,所以方程组(1)有无数个解。设 y=2 ,则 x=1;再设 k 为任意常数,则 x=k, y=2k 为方程组(1)的解,写成矩阵的形式为:
\left[\begin{matrix}2 & -1 \\-4 & 2\end{matrix}\right]\left[\begin{matrix}1k \\2k\end{matrix}\right]= \left[\begin{matrix}0 \\0\end{matrix}\right]
(其中, \left[\begin{matrix}1\\2\end{matrix} \right] 称为方程组(1)的基础解系)
(2)非齐次线性方程组
再来看一个3个未知数的方程组:
\begin{cases} 2x&+&3y&+&z&=&6\\x&-&y&+&2z&=&-1\\x&+&2y&-&z&=&5 \end{cases}
右边等式不为0,改写成增广矩阵:
\left[\begin{array}{c|c}A & b \\\end{array}\right]= \left[\begin{array}{ccc|c}2 & 3 & 1 & 6 \\1 & -1 & 2 & -1 \\1 & 2 & -1 & 5\end{array}\right]
同理,对 [ A | b] 进行初等行变换(即消元):
\left[\begin{array}{c|c}A & b \\\end{array}\right] \rightarrow \left[\begin{array}{ccc|c}1 & -1 & 2 & -1 \\2 & 3 & 1 & 6 \\1 & 2 & -1 & 5\end{array}\right] \rightarrow \left[\begin{array}{ccc|c}1 & -1 & 2 & -1 \\0 & 5 & -3 & 8 \\0 & 3 & -3 & 6\end{array}\right]\\ \rightarrow \left[\begin{array}{ccc|c}1 & -1 & 2 & -1 \\0 & 5 & -3 & 8 \\0 & 15 & -15 & 18\end{array}\right] \rightarrow \left[\begin{array}{ccc|c}1 & -1 & 2 & -1 \\0 & 5 & -3 & 8 \\0 & 0 & -6 & 6\end{array}\right]
这一次进行初等行变换后,对于任意的非齐次线性方程组,当 r(A)=r(A|b)=未知数的个数 时,非齐次线性方程组有唯一解;当 r(A)=r(A|b)<未知数的个数 时,非齐次线性方程组有无数个解;当 r(A) 不等于 r(A|b) 时,非齐次线性方程组无解。
可见 r(A)=r(A|b)=3,所以[A|b]有唯一解,写回方程组形式:
\begin{cases} x&-&y&+&2z&=&-1\\0&+&5y&-&3z&=&8\\0&+&0&-&6z&=&6 \end{cases}
解得唯一解为: \left[\begin{matrix}-4\\-1\\1\end{matrix} \right],也可以写成矩阵的转置: \left[\begin{matrix}-4 & -1 & 1\end{matrix} \right]^T
(二)向量
中学时期学的向量是在笛卡尔直角坐标系下表示的向量。而在线性代数中,向量可以表示到三维以上,难以再以三维所见所得来理解向量,从而向量变得非常抽象。本文不涉及很多抽象概念,力求用大白话来理解和解释向量。
1、列向量
可能是数学家觉得用矩阵来代表方程组还是太麻烦还废纸,所以又苦思冥想,最终想到了用向量再来继续简化矩阵,举个例子:
有这么一个矩阵: \left[\begin{matrix}a_{11} & a_{12} & a_{13} & \cdots & a_{1n} \\a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\a_{31} & a_{32} & a_{33} & \cdots & a_{3n} \\\vdots & \vdots & \vdots && \vdots\\a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn}\end{matrix}\right],
将矩阵按列分块:\left[\begin{array}{c|c}a_{11} & a_{12} & a_{13} & \cdots & a_{1n} \\a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\a_{31} & a_{32} & a_{33} & \cdots & a_{3n} \\\vdots & \vdots & \vdots && \vdots\\a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn} \end{array}\right]
随便选一列出来,假设选第i列 \left[\begin{matrix}a_{1i} \\a_{2i} \\a_{3i} \\\vdots \\a_{mi} \end{matrix}\right]出来
假设给第1列一个头衔为\alpha_1;
同理给第2列一个头衔为\alpha_2;
\cdots
同理给第n列一个头衔为\alpha_n;
那么,
\alpha_1= \left[\begin{matrix}a_{11} &a_{21} &a_{31} &\cdots &a_{m1} \end{matrix}\right]^T
\alpha_2= \left[\begin{matrix}a_{12} &a_{22} &a_{32} &\cdots &a_{m2} \end{matrix}\right]^T
\cdots
\alpha_m= \left[\begin{matrix}a_{1n} &a_{2n} &a_{3n} &\cdots &a_{mn} \end{matrix}\right]^T
可见,
原矩阵中的第 i 列只要用 αi 表示即可。这个小小的 αi,我们称之为列向量。
原矩阵共有 m 行,则向量 αi 中有 m 个分量(元素),也叫做 m 维向量。
用 n 个 m 维向量来表示原矩阵:
A= \left[\begin{matrix}\alpha_1 &\alpha_2 &\alpha_3 &\cdots &\alpha_m \end{matrix}\right]
另外,矩阵A中把 α1, α2, α3, … , αm 多个向量称为向量组。
3、行向量
有列向量,自然有行向量。
同理,我们对矩阵A按行分块,并对每行元素用向量表示。
\alpha_1= \left[\begin{matrix}a_{11} &a_{12} &a_{13} &\cdots &a_{1n} \end{matrix}\right]
\alpha_2= \left[\begin{matrix}a_{21} &a_{22} &a_{23} &\cdots &a_{2n} \end{matrix}\right]
\cdots
\alpha_m= \left[\begin{matrix}a_{m1} &a_{m2} &a_{m3} &\cdots &a_{mn} \end{matrix}\right]
可见,
原矩阵中的第 i 行只要用 αi 表示即可。这个小小的 αi,我们称之为行向量。
原矩阵共有 n 列,则向量 αi 中有 n 个分量(元素),也叫做 n 维向量。
用 α1, α2, α3, … , αn 向量组来表示原矩阵:
A= \left[\begin{matrix}\alpha_1 \\\alpha_2 \\\alpha_3 \\\cdots \\\alpha_n\end{matrix}\right]
显然,用向量组便可轻松对矩阵瘦身。
3、线性相关与线性无关
(1)线性相关
假设有这么一个矩阵
A= \left[\begin{matrix}2 & -1 \\-4 & 2\end{matrix}\right]
我们对其按行分块,则有向量:
\alpha_1= \left[\begin{matrix}2 &-1 \end{matrix}\right]
\alpha_2= \left[\begin{matrix}-4 &2 \end{matrix}\right]
如果用行向量 α1, α2, α3, … , αn 来表示的矩阵A经过初等行变换后,某行(即某个向量αi)的元素全变为0,那么则称 α1, α2, α3, … , αn 向量组线性相关(可以理解为多个向量间或系数矩阵有线性关系)。
如果齐次线性方程组的系数矩阵有线性关系,那么齐次线性方程组有无穷多个解。为了看清楚 α1, α2, α3, … , αn 是否线性相关,对矩阵A进行初等行变换后,发现:
\left[\begin{matrix}2 & -1 \\0 & 0\end{matrix}\right]
所以, α1, α2, α3, … , αn 向量组线性相关。
(2)线性无关
假设有这么一个矩阵
A= \left[\begin{matrix}1 & -1 & 2 \\2 & 3 & 1 \\1 & 2 & -1\end{matrix}\right]
我们对其按行分块,则有向量:
\alpha_1= \left[\begin{matrix}1 & -1 & 2 \end{matrix}\right]
\alpha_1= \left[\begin{matrix}2 & 3 & 1 \end{matrix}\right]
\alpha_1= \left[\begin{matrix}1 & 2 & -1 \end{matrix}\right]
如果用行向量 α1, α2, α3, … , αn 来表示的矩阵A经过初等行变换后,某行(即某个向量αi)的元素不全为0,那么则称 α1, α2, α3, … , αn 向量组线性无关。
为了看清楚 α1, α2, α3, … , αn 是否线性无关,对矩阵A进行初等行变换后,发现:
\left[\begin{matrix}1 & -1 & 2 \\0 & 5 & -3 \\0 & 0 & -6 \end{matrix}\right]
所以, α1, α2, α3, … , αn 向量组线性无关。
4、向量空间
向量空间是线性代数中抽象的一部分,常用于物理研究中探索多维空间的奥秘(有没有用于物理中不太清楚,感觉的)。
在笛卡尔直角坐标体系中,向量(1,0), (0,1)分别代表了横坐标轴、纵坐标轴,对这两个向量线性组合的整体就可以表示出一个平面,即2维向量空间;向量(1,0,0), (0,1,0), (0,0,1)分别代表了x坐标轴、y坐标轴、z坐标轴,对这三个向量线性组合表示出的整体可表示出一个3维向量空间;以此类推。
有规律的是,n 维向量空间中的 n个坐标轴向量是互相垂直的(就算是4维空间的4个坐标轴也是垂直的,只不过我们处于三维中,难以感知到四维空间,只能想象)。我们称向量间的垂直为正交。数学家对向量空间更是大开脑洞,认为不一定是笛卡尔体系的(1,0,0), (0,1,0), (0,0,1)才能是坐标轴,只要是线性无关的向量组中的n个向量都可以当做是n维向量空间中的坐标轴,相当于将笛卡尔坐标体系的原点固定住,将所有坐标轴就像陀螺一样旋转某个角度,得出的新坐标轴肯定是线性无关的。
“n个向量组成的线性无关向量组,在n维向量空间中,可充当坐标轴。”这就是线性代数的向量空间的核心思想。
(三)行列式
行列式作为国内各个教材书中的第一个章节的内容,证明了其在线性代数中的重要性。但是如果从教材中的行列式入手学习线性代数,那是要吃不少苦头的,因为只学了行列式,没有具备矩阵和向量的知识的情况下,很容易一脸懵逼。由于行列式涉及的概念、性质、计算众多,所以本文只简单介绍一下行列式。
行列式的本质是什么?柯西给出了答案。
假设在一个平面中有两个向量:
x1=(a, c), x2=(b, d);
x1与横坐标的角度为α,x2与横坐标的角度为β;
x1的模为 ||x1||,x2的模为 ||x2||;
如图:
我们要求图中的 S,即向量平移后端点相交而围成的平行四边形的面积:
S = ||x1|| · ||x2|| · sin(β-α)
= ||x1|| · ||x2|| · (sinβcosα - cosβsinα)
= ad - bc
对 x1 和 x2 向量类似行向量那样子对元素命名:
x1=(a11, a12)
x2=(a21, a22)
重新得到 S = a11 · a22 - a12 · a21,
数学家对向量 x1 和 x2 写成行列式,代表了 S 的值:
S= \left|\begin{array}{cc}a_{11} & a_{12} \\a_{21} & a_{22} \end{array}\right|
行列式不过就是将矩阵的括号改成了两条竖线,用竖线包着的元素,最终可以算出一个数,这个数就是行列式,行列式就是一个数,这个数是不同行不同列元素乘积的代数和。而矩阵本质为表格或数组,这是两者不同之处。
如果继续推,可以推出:在二维空间,行列式是面积;在三维空间,行列式是体积;在高维空间,行列式是一个数。换句话说,就是由n个向量组成的线性无关向量组,可以表示成行列式,并且算出的结果肯定不为0。以次可推,由n个向量组成的线性相关向量组表示成的行列式值为0。
(四)特征值与特征向量
特征值与特征向量在线性代数中是最难理解的内容,尤其在阅读国内教程时,直接一个定义拍到脸上,让人措手不及。特征值与特征向量是线性代数的核心,在机器学习算法中应用十分广泛。
1、定义
首先,讲到特征值与特征向量,必先讲到定义:
设 A 是 n 阶矩阵,如果存在一个数 λ 及非零的 n 维列向量 α ,使得
A\alpha=\lambda\alpha
成立,则称 λ 是矩阵 A 的一个特征值,称非零向量 α 是矩阵 A 属于特征值 λ 的一个特征向量。
观察这个定义可以发现,特征值是一个数,特征向量是一个列向量,一个矩阵乘以一个向量就等于一个数乘以一个向量。这个定义感觉太抽象了,我们来举一个具体的例子:
设 A 是 3 阶矩阵,
A= \left[\begin{matrix}1 & 1 & -1 \\1 & -2 & 2 \\-3 & 1 & 3 \end{matrix}\right]
存在一个数 λ ,
\lambda = 4
且存在一个非零的 3 维列向量 α ,
\alpha= \left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]
使得 Aα = λα,即
\left[\begin{matrix}1 & 1 & -1 \\1 & -2 & 2 \\-3 & 1 & 3 \end{matrix}\right]\left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]=4\left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]\tag{4}
则称 λ=4 为矩阵A的特征值,
(为了方便,简称 4 为特征值)
也称 α=[ -4, 5, 17 ]T 是矩阵A属于特征值为 4 的一个特征向量。
(为了方便,简称 [ -4, 5, 17 ]T 为特征向量)
对于上面的(4)式,我们可以把它还原为方程组验证此式是否成立,还原过程如下:
\left[\begin{array}{c|c}1 & 1 & -1 \\1 & -2 & 2 \\-3 & 1 & 3 \end{array}\right]\left[\begin{matrix}(-4) \\(5) \\(17) \end{matrix}\right]=4\left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]
\Longrightarrow -4\left[\begin{matrix}1 \\1 \\-3 \end{matrix}\right]+5\left[\begin{matrix}1 \\-2 \\1 \end{matrix}\right]+17\left[\begin{matrix}-1 \\2 \\3 \end{matrix}\right]=4\left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]
\Longrightarrow \begin{cases} & 1×(-4) & +& 1×5 & + & (-1)×17 & = & 4×(-4) & \\& 1×(-4) & + & (-2)×5 & + & 2×17 & = & 4×5 & \\& (-3)×(-4) & + & 1×5 & + & 3×17& = & 4×17 \end{cases}
\Longrightarrow \begin{cases} & -4 & +& 5 & - & 17 & = & -16 & \\& -4 & - & 10 & + & 34 & = & 20 & \\& 12 & + & 5 & + & 51& = & 68 \end{cases}
显然,每个等式两边相等, Aα = λα 成立!(如果不知道为什么可以还原成方程组的话,请翻回到上面的非齐次方程组部分,可发现在这里 α 相当于解向量, λα 相当于 b 向量)
2、特征值与特征向量的个数
如果是自学线性代数的话,很容易有这么一个误区:认为一个矩阵的特征值与特征向量只有一个。其实,一个矩阵的特征值可以有多个,相应地,特征向量的个数也随着特征值的数量的变化而变化。
总的来说,一个n行n列的矩阵的特征值个数少于或等于 n 个。
还是以矩阵A为例,满足 Aα = λα 的式子有:
(1)
\left[\begin{matrix}1 & 1 & -1 \\1 & -2 & 2 \\-3 & 1 & 3 \end{matrix}\right]\left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]=4\left[\begin{matrix}-4 \\5 \\17 \end{matrix}\right]
特征值 λ1 = 4,特征向量 α1 = [ -4 5 17 ]T。
(2)
\left[\begin{matrix}1 & 1 & -1 \\1 & -2 & 2 \\-3 & 1 & 3 \end{matrix}\right]\left[\begin{matrix}1 \\1 \\1 \end{matrix}\right]=1\left[\begin{matrix}1 \\1 \\1 \end{matrix}\right]
特征值 λ2 = 1,特征向量 α2 = [ 1 1 1 ]T。
(3)
\left[\begin{matrix}1 & 1 & -1 \\1 & -2 & 2 \\-3 & 1 & 3 \end{matrix}\right]\left[\begin{matrix}1 \\-3 \\1 \end{matrix}\right]=-3\left[\begin{matrix}1 \\-3 \\1 \end{matrix}\right]
特征值 λ3 = -3,特征向量 α3 = [ 1 -3 1 ]T。
另外,一个特征值对应的特征向量的个数也不一定只有一个。 (由于这句话会引申出特别多的性质,所以本文就不举这句话的例子了)
3、给定一个矩阵,求特征值与特征向量的方式
求特征值与特征向量为这么一个过程:设A为n阶矩阵,a为非零列向量,λ是一个数,
Aa=\lambda \alpha,\alpha\neq0
移项,
\Longrightarrow\lambda \alpha-A\alpha=0
利用结合律,由于 λ 是一个数不能直接减矩阵A,所以给 λ 乘以一个单位矩阵E。假设E为2阶单位矩阵,E= (1001) \bigl( \begin{smallmatrix} 1 & 0 \\ 0 & 1\end{smallmatrix} \bigr),即从左上角到右下角的对角线上的元素全为1,其余为0,
\Longrightarrow(\lambda E-A)\alpha=0\tag{5}
把(5)式中的矩阵(λE-A)看做是矩阵B,把a列向量看做是x解向量,那么Ax=0是一个齐次线性方程组,由于列向量x不等于0,所以这个齐次线性方程组没有零解,矩阵A每行当作列向量组成的向量组线性相关,于是根据上面行列式的结论,矩阵A写成行列式|A|后算出的结果为0,
\Longrightarrow | \lambda E-A|=0\tag{6}
解(6)式即可解出多个 λ 值,如 λ1, λ2, λ3 … λn ,将 λi 值代回到(5)式,按照求解齐次线性方程组的方式,即可解出属于 λi 的非零特征向量 ai 。
\Longrightarrow(\lambda_i E-A)a=0\\ \Longrightarrow \alpha_i=[a_1, a_2, ... , a_n]^T
由于本文对行列式介绍的篇幅太少,而求特征值与特征向量会涉及对行列式的计算,所以博主我就不举例子了(其实是懒)。
4、特征值与特征向量该怎么理解
仔细看本文的童鞋就会发现,一个矩阵并非只是单纯的一张表格、数组,它还代表了某种神奇的魔力,与某个向量相乘后,还能变成一个数。换句话说,保存着很多个数的矩阵经过与特定的向量相乘后,塌缩成了一个数。
Aa=\lambda \alpha
对于特征值与特征向量,有许多不同的理解,我自己从网络上的观点总结了一下,大概分为三种理解:
第一种理解:从向量的角度来看,一个列向量在左乘一个矩阵后,会经过一系列的线性变换,最终向量的长度会变成原来的 λ 倍。
第二种理解:从矩阵的角度来看,矩阵是一种线性变化的描述,特征向量是一个不变的方向,特征值是线性变化的结果。
第三种理解:从向量空间的角度来看,因为不同特征值对应的特征向量线性无关,把每个特征向量看做是一个坐标轴,特征值是对应坐标轴(即特征向量)的坐标值。简单来说,就是用特征值(坐标)与特征向量(坐标轴)来表示原矩阵。
以上三种理解由浅入深,第三种理解才是本质的理解,但首先需要对向量空间有深刻的理解。
二、一些不错的学习资源
本文讲述的线性代数仅为入门知识,乃整个线代学科的冰山一角,虽然文章中多处吐槽了国内的线性代数教材,但是学习线代还是离不开教材的,推荐老美的《线性代数及其应用》。其实网上也有不少好的线性代数资料,以下列举部分我看过的、或参考的资料。
(一)视频
如果不是为了考试的话,推荐直接看视频学习。
1、《麻省理工公开课:线性代数》
2、《可汗学院公开课:线性代数》
(二)博文
列举一些写得比较好的博文:
1、线代的入门:《如何生动有趣的入门线性代数》
2、线代的基础:《线性代数知识汇总》
3、线代的理解:《关于线性代数》
4、结合概率统计的线性回归算法:《机器学习之线性回归及代码示例》
5、主成分分析法(PCA)的原理:《一分钟理解 PCA 的原理》
6、PCA的简单解释:《浅解PCA》
7、PCA的通俗理解:《通俗理解PCA降维作用》
8、人脸识别之特征脸算法理论:《特征脸EigenFace与PCA》
9、特征脸的实战:《运用特征脸方法的基于Opencv的猫脸检测实现》
10、矩阵的md格式参考于:《使用LaTeX写矩阵》
最后一点点话
以上内容的整理花了我不少时间,有误之处,请多多指点。
转载请留言,原创于:http://blog.csdn.net/a727911438?viewmode=contents
【线性代数】矩阵、向量、行列式、特征值与特征向量(掌握这些概念一篇文章就够了)相关推荐
- 【线性代数】三、特征值和特征向量
目录 一.基本概念和性质 矩阵方阵考察特征向量 二.矩阵的相似 三.矩阵相似对角化 四.实对称矩阵和正交矩阵 五.题型 1.抽象型特征值和特征向量 2.两矩阵相似的判别和证明 3.求可逆矩阵P使得 P ...
- 漫步线性代数二十六——特征值和特征向量(续)
上面展示了当求解du/dt=Audu/dt=Au时,如何自然而然的引出特征值λ\lambda和特征向量xx,这样的一个方程有纯指数解u=eλtxu=e^{\lambda t}x:特征值给出了增长或衰减 ...
- 漫步线性代数二十五——特征值和特征向量
之后的文章开始介绍线性代数的后半部分.线性代数的前半部分几乎都涉及到Ax=bAx=b,从现在起我们将通过化简矩阵(尽可能变成对角矩阵)来求解新问题Ax=λxAx=\lambda x,基本的步骤已经不是 ...
- 线性代数【9】 - 特征值和特征向量
前言: 和秩一样,矩阵的特征值和特征向量都是矩阵的重要性质.本节,我们研究矩阵的特征值和特征向量的定义和求法. 特征值,特征向量的概念,后面用于相似矩阵,而相似矩阵被用于将矩阵化为对角阵,从而,可以简 ...
- 线性代数【21】特征值和特征向量的几何意义
前言:线性变换最关键的是你要将矩阵看成是线性变换, 1 引子: 讨论一个二维空间里的一个线性变换,将基向量[^i]变换到(3,0),[^j]向量变换到(1,2). 如果用矩阵表述,就是如下的两列组成的 ...
- 李永乐线性代数手写笔记-特征值和特征向量
李永乐线性代数基础知识,整理放在博客上面,方便自己复习查看. 概览请移步:李永乐线性代数2020年基础课手写笔记汇总 文章目录 一 特征值和特征向量 二 相似矩阵 三 实对称矩阵 一 特征值和特征向量 ...
- 线性代数:如何求特征值和特征向量?
一.特征值和特征向量的定义 1 首先让我们来了解一下特征值和特征向量的定义,如下: 2 特征子空间基本定义,如下: END 二.特征多项式 1 特征多项式的定义,如下: 2 推论:n阶方阵A可逆的充要 ...
- 线性代数 —— 矩阵的行列式
1.行列式 排成 n 阶方阵形式的 n^2 个数所确定的一个数称为 n 阶方阵 A 的行列式,记为:det(A) 或 |A| 一个 2x2 的矩阵的行列式可表示为: 2.余子式与代数余子式 将 n 阶 ...
- 线性代数:如何求特征值和特征向量
特征值和特征向量的定义 特征多项式 推论:n阶方阵A可逆的充要条件是A的n个特征值非0 特征值的基本性质 经典例题 1 2 3 总结 1.定义求解 2.特征多项式求解 3.如果相似的话就可以利用相似的 ...
最新文章
- tf.shape()
- java 中iterator 和 collection接口源码
- Matrix Problem
- [Selenium] CSS3 选择器
- 谷歌推出TFGAN:开源的轻量级生成对抗网络库
- iOS 绝对值方法
- 63. Event button 事件属性
- c语言程序设计马秀丽课后题答案,c语言程序设计课后题答案马秀丽
- 30分钟快速了解云计算
- 使用Unity制作VR全景图片清晰度的问题!!!
- js,jquery获取复选框checkbox被选中的值
- 测试开发--java
- 上半年要完成的博客55
- 昨日伦镍交易无效静待上海处理结果,橡胶认购大涨,印尼神油强势涨停YP新低2022.3.9
- C语言——日期转换为天数
- 网络刷单背后的大圈套让很多人中招
- Viewer.js 是一款强大的图片查看器
- 网狐、6878、名字修改图片文字路径【第四次更新】
- If I Die Young
- 一款开源免费图床聚合平台 ImageHosting
热门文章
- CSDN博客周刊·2008年第6期
- “杀毒大王”王江民缘何难走向世界?
- Win10 共享文件夹相关操作(以及设置用户和密码)
- mysql导入dcom配置_DCOM配置失效问题解决
- 前端面试问题总结(二)7.5
- 《花落的声音》(张爱玲作品)
- elasticsearch踩坑记录 no handler found for uri [http://localhost:9200/hyy/user/_search] and method [POST
- 重庆北大青鸟解放碑校区 J13班 杨云辉 作品名称:云游网
- blender怎么移动骨骼_cocos2dx blender 骨骼动画实现
- 9首小虎队歌曲为样本做的人工智能音乐两首