“Last time, I asked: ‘What does mathematics mean to you?’, and some people answered: ‘The manipulation of numbers, the manipulation of structures.’ And if I had asked what music means to you, would you have answered: ‘The manipulation of notes?’” — Serge Lang

Abstractness is the price of generality. — 普适的代价是抽象

定义

span:span:span: The “span” of v⃗\vec vv and w⃗\vec ww is the set of all their linear combinations.(给定向量张成的空间)

linearlylinearlylinearly dependent:dependent:dependent: 一组向量中至少有一个向量对张成的空间大小没有贡献。

basis:basis:basis: The basis of a vector space is a set of linearly independent vectors that span the full space.(向量空间的一组基是张成该空间的一个线性无关向量集)

linearlinearlinear transformation:transformation:transformation: (1) Lines remain lines(直线依旧是直线)(2) Origin remains fixed(原点保持固定)(3) keeping grid lines parallel and evenly spaced(保持网格线平行且等距分布)(4) 线性变换仅对基底进行改变,即 v⃗=(x,y)=x⋅i⃗+y⋅j⃗\vec v=(x,y)=x\cdot \vec i+y\cdot\vec jv=(x,y)=x⋅i+y⋅j​ 在线性变换后为 v⃗′=x⋅i⃗′+y⋅j⃗′\vec v'=x\cdot \vec i'+y\cdot\vec j'v′=x⋅i′+y⋅j​′

determinant:determinant:determinant: 矩阵行列式,即线性变换改变面积的比例。

  • 若 det(A)=0det(A)=0det(A)=0,则整个平面被压缩到一条线甚至一个点上 ,即空间被压缩到了更小的维度上。

  • 若 det(A)<0det(A)<0det(A)<0,则空间定向发生了改变,例如二维平面上 i⃗\vec ii 出现在 j⃗\vec jj​ 的左边。(the orientation of space has been inverted)

  • det(M1M2)=det(M1)det(M2)det(M_1M_2)=det(M_1)det(M_2)det(M1​M2​)=det(M1​)det(M2​)

rank:rank:rank: Number of dimensions in the output.(秩,矩阵列空间的维数)

columncolumncolumn space:space:space: Set of all possible outputs Av⃗A\vec vAv.(AAA 的列空间,即矩阵的列所张成的空间)

nullnullnull spacespacespace / kernel:kernel:kernel: The set of vectors that lands on the origin is called the “null space” or the “kernel” of the matrix.(变换后落在原点的向量的集合,被称为矩阵的 “零空间” 或 “核”;变换后一些向量落在零向量上,而 “零空间” 正是这些向量所构成的空间)

duality:duality:duality: Natural-but-surprising correspondence between two types of mathematical thing.(对偶性,自然而又出乎意料的对应关系)

  • 一个向量的对偶是由它定义的线性变换
  • 一个多维空间到一维空间的线性变换的对偶是多维空间中的某个特定向量

eigenvector:eigenvector:eigenvector: 线性变换后仍位于原直线上的向量

eigenvalue:eigenvalue:eigenvalue: 特征向量的放缩倍数,如果为负数,则方向相反

eigenbasis:eigenbasis:eigenbasis: 特征基,由特征向量组成的基,可用于矩阵特征值分解(例如可以加速矩阵幂次运算)

vectorvectorvector spaces:spaces:spaces: 箭头、一组数、函数等类似向量的事物,它们构成的集合被称为 “向量空间”。(满足下述八条公理 - Axioms 即为向量)

orthogonalorthogonalorthogonal transformation:transformation:transformation: If T(v⃗)⋅T(w⃗)=v⃗⋅w⃗T(\vec v)\cdot T(\vec w)=\vec v\cdot \vec wT(v)⋅T(w)=v⋅w for all v⃗\vec vv and w⃗\vec ww, TTT is “Orthonormal”.(基底仍为单位向量且互相垂直,向量变换后长度不变)

性质

  • Linear algebra revolves around vector addition and scalar multiplication.(线性代数紧紧围绕向量加法与数乘)
  • [矩阵] [向量]:对向量做线性变换,本质是更换向量所在空间的基底,其中矩阵的第 iii 列对应更换后的第 iii 维基底。
  • [矩阵] [矩阵]:apply one transformation after another, (1) AB≠BAAB\not=BAAB​=BA, (2) ABC=A(BC)ABC=A(BC)ABC=A(BC)
  • [向量] ⋅\cdot⋅ [向量]:两个向量点乘,就是将其中一个转化为线性变换
  • 线性变换 LLL 的严格定义:(1) L(v⃗+w⃗)=L(v⃗)+L(w⃗)L(\vec v+\vec w)=L(\vec v)+L(\vec w)L(v+w)=L(v)+L(w), (2) L(cv⃗)=cL(v⃗)L(c\vec v)=cL(\vec v)L(cv)=cL(v)
  • 基向量的变换
  • A−1MA:A^{-1}MA:A−1MA: 暗示着一种数学上的转移作用,即先用 AAA 将坐标系线性变化(更换基),再执行 MMM(直观的线性变换),再回归到原来的坐标系(A−1A^{-1}A−1)。
  • 克莱姆法则:根据行列式代表空间变换大小的性质,求解每一个未知量时,固定其它维度的基不变,仅改变当前基,使得变换后空间大小恒等。

其它

向量范数 (Vector Norms)
  • x∈Rdx\in \mathbb{R}^dx∈Rd
  • lp-norm=∣∣x∣∣p=(∑i=1d∣xi∣p)1/pl_p\text{-}norm=||x||_p=(\sum\limits_{i=1}^d|x_i|^p)^{1/p}lp​-norm=∣∣x∣∣p​=(i=1∑d​∣xi​∣p)1/p
  • l2-norm=Euclideannorml_2\text{-}norm=Euclidean\ norml2​-norm=Euclidean norm
  • l0-norm=∣∣x∣∣0=∑i=1dI(xi>0)l_0\text{-}norm=||x||_0=\sum_{i=1}^dI(x_i>0)l0​-norm=∣∣x∣∣0​=∑i=1d​I(xi​>0)
  • l∞-norm=∣∣x∣∣∞=max⁡1≤i≤d∣xi∣l_{\infty}\text{-}norm=||x||_{\infty}=\underset{1\leq i\leq d}{\max}|x_i|l∞​-norm=∣∣x∣∣∞​=1≤i≤dmax​∣xi​∣
矩阵范数 (Matrix Norms)
  • A∈Rmx nA\in \mathbb{R}^{m\ \text{x}\ n}A∈Rm x n
  • ∣∣A∣∣2=σ1||A||_2=\sigma_1∣∣A∣∣2​=σ1​,即最大的奇异值
  • ∣∣A∣∣Nuclear=∑i=1rσi||A||_{Nuclear}=\sum\limits_{i=1}^r\sigma_i∣∣A∣∣Nuclear​=i=1∑r​σi​
  • ∣∣A∣∣p=∣∣vec(A)∣∣p=(∑i=1m∑j=1n∣xij∣p)1/p||A||_p=||vec(A)||_p=(\sum\limits_{i=1}^m\sum\limits_{j=1}^n|x_{ij}|^p)^{1/p}∣∣A∣∣p​=∣∣vec(A)∣∣p​=(i=1∑m​j=1∑n​∣xij​∣p)1/p
  • ∣∣A∣∣p,q=(∑i=1m(∑j=1n∣aij∣p)q/p)1/q||A||_{p,q}=(\sum\limits_{i=1}^m(\sum\limits_{j=1}^n|a_{ij}|^p)^{q/p})^{1/q}∣∣A∣∣p,q​=(i=1∑m​(j=1∑n​∣aij​∣p)q/p)1/q
  • Frobenius norm =∣∣A∣∣2,1=∣∣A∣∣F=(tr(ATA))1/2=(∑i=1m∑j=1naij2)1/2=||A||_{2,1}=||A||_F=(tr(A^TA))^{1/2}=(\sum\limits_{i=1}^m\sum\limits_{j=1}^na_{ij}^2)^{1/2}=∣∣A∣∣2,1​=∣∣A∣∣F​=(tr(ATA))1/2=(i=1∑m​j=1∑n​aij2​)1/2
矩阵的迹
  • For a square matrix AAA
  • Trace: sum of diagonal elements, tr(A)=∑k=1dakktr(A)=\sum\limits_{k=1}^da_{kk}tr(A)=k=1∑d​akk​
  • tr(A)=tr(AT)tr(A)=tr(A^T)tr(A)=tr(AT)
  • tr(αA+βB)=αtr(A)+βtr(B)tr(\alpha A+\beta B)=\alpha tr(A)+\beta tr(B)tr(αA+βB)=αtr(A)+βtr(B)
  • tr(ABC)=tr(BCA)=tr(CAB)tr(ABC)=tr(BCA)=tr(CAB)tr(ABC)=tr(BCA)=tr(CAB)
  • tr(ATB)=∑i=1n∑j=1maijbij=<A,B>tr(A^TB)=\sum_{i=1}^n\sum_{j=1}^ma_{ij}b_{ij}=<A,B>tr(ATB)=∑i=1n​∑j=1m​aij​bij​=<A,B>
特征值
  • A∈Rmx mA\in \mathbb{R}^{m\ \text{x}\ m}A∈Rm x m
  • Av=λvAv=\lambda vAv=λv, vvv is an eigenvector, λ\lambdaλ is the corresponding eigenvalue.
  • tr(A)=∑iλitr(A)=\sum_i\lambda_itr(A)=∑i​λi​
  • det(A)=∣A∣=∏iλidet(A)=|A|=\prod_i\lambda_idet(A)=∣A∣=∏i​λi​
相似矩阵 (Similar Matrix)

常见转换
  • (A+BD−1C)−1=A−1−A−1B(D+CA−1B)−1CA−1\left(A+B D^{-1} C\right)^{-1}=A^{-1}-A^{-1} B\left(D+C A^{-1} B\right)^{-1} C A^{-1}(A+BD−1C)−1=A−1−A−1B(D+CA−1B)−1CA−1
  • det⁡(IN+AB⊤)=det⁡(IM+A⊤B)\det(I_{N}+A B^{\top})=\det(I_{M}+A^{\top} B)det(IN​+AB⊤)=det(IM​+A⊤B) 当矩阵 A,BA,BA,B 均为 m⋅nm\cdot nm⋅n 时成立
矩阵 / 向量求导
  • 分子布局:分子按列展开

  • 分母布局:分母按列展开(通常采用)

  • x:x:x: 标量,x:\textbf{x}:x: 向量,A:A:A: 矩阵

  • ddx(Ax)=AT\displaystyle\frac{d}{d\textbf{x}}(A\textbf{x})=A^Tdxd​(Ax)=AT

  • dxdx=I\displaystyle\frac{d\textbf{x}}{d\textbf{x}}=Idxdx​=I

  • dyTxdx=dxTydx=y\displaystyle\frac{d\textbf{y}^T\textbf{x}}{d\textbf{x}}=\displaystyle\frac{d\textbf{x}^T\textbf{y}}{d\textbf{x}}=\textbf{y}dxdyTx​=dxdxTy​=y

  • ∂aTXb∂X=abT\displaystyle\frac{\partial \mathbf{a}^{T} \mathbf{X} \mathbf{b}}{\partial \mathbf{X}}=\mathbf{a b}^{T}∂X∂aTXb​=abT

  • ∂aTXTb∂X=baT\displaystyle\frac{\partial \mathbf{a}^{T} \mathbf{X}^{T} \mathbf{b}}{\partial \mathbf{X}}=\mathbf{b a}^{T}∂X∂aTXTb​=baT

  • ddx(xTAx)=(A+AT)x,xTAx=∑i=1n∑j=1nxixjAij\displaystyle\frac{d}{d\textbf{x}}(\textbf{x}^TA\textbf{x})=(A+A^T)\textbf{x},\textbf{x}^TA\textbf{x}=\sum\limits_{i=1}^n\sum\limits_{j=1}^nx_ix_jA_{ij}dxd​(xTAx)=(A+AT)x,xTAx=i=1∑n​j=1∑n​xi​xj​Aij​

  • ddW(pTWt)=ddW(tTWTp)=ptT\displaystyle\frac{d}{d\textbf{W}}(p^{T} \textbf{W} t)=\displaystyle\frac{d}{d\textbf{W}}(t^{T} \textbf{W}^T p)=pt^{T}dWd​(pTWt)=dWd​(tTWTp)=ptT

  • ddX(log⁡det⁡X)=X−1,X∈S++n\displaystyle\frac{d}{d\textbf{X}}(\log\det\mathbf{X})=\mathbf{X}^{-1},\mathbf{X}\in\mathbf{S}^n_{++}dXd​(logdetX)=X−1,X∈S++n​

  • dA−1dx=−A−1dAdxA−1\displaystyle\frac{d \mathbf{A}^{-1}}{d x}=-\mathbf{A}^{-1} \frac{d \mathbf{A}}{d x} \mathbf{A}^{-1}dxdA−1​=−A−1dxdA​A−1

  • TraceTraceTrace

  • 推荐博客 (上)、推荐博客 (下)

  • API 网站

【笔记】线性代数的本质相关推荐

  1. 《线性代数的本质》学习笔记

    诸神缄默不语-个人CSDN博文目录 VX号"PolarisRisingWar"可直接搜索添加作者好友讨论. 本文是3B1B视频课程<线性代数的本质>全内容笔记. 更新日 ...

  2. 线性代数的本质--笔记整理

    线性代数的本质--笔记 00 序言 尽管一批教授和教科书编者用关于矩阵的荒唐至极的计算内容掩盖了线性代数的简明性,但是鲜有与之相较更为初等的理论.            一一让.迪厄多内 线性代数不仅 ...

  3. 3Blue1Brown【线性代数的本质】— 个人笔记

    [线性代数的本质]- 个人笔记 00 序言 01 向量 02 张成的空间与基 03 矩阵与线性变换 04 矩阵乘法与线性变换的联系 05 行列式 06 逆矩阵.列空间.秩与零空间 补充:非方阵 不同维 ...

  4. 3blue1brown线性代数的本质笔记

    3blue1brown线性代数的本质视频 目录 1.向量究竟是什么? 2.线性组合.张成空间与基 3.矩阵与线性变换 4.矩阵乘法与线性变换复合 5.行列式 6.逆矩阵.列空间和零空间 7.点积与对偶 ...

  5. 线性代数的本质(3Blue1Brown线代笔记)

    01:向量究竟是什么? 从物理专业学生视角看,向量是空间中的箭头,向量可在空间中自由落脚,决定向量的是它的长度和所指的方向. 从计算机专业学生的视角看,向量是有序的数字列表,例如研究房价,你会用二维向 ...

  6. 线性代数的本质学习笔记

    线性代数的本质 文章目录 线性代数的本质 1.向量究竟是什么 2.线性组合.张成的空间.基 3.矩阵与线性变换 4.矩阵乘法与线性变换复合 5.三维空间中的线性变换 6.行列式 7.逆矩阵.列空间与零 ...

  7. 【线性代数的本质|笔记】线性组合、张成的空间、基

    向量组&线性组合&线性相关性&向量空间 讲到向量组的时候往往要等价类比向量空间的相关概念与描述,这一块的知识串联得特别紧密,遂先整理如下. <线性代数的本质>视频中 ...

  8. 【线性代数的本质|笔记】从线性变换的角度看向量的点积和叉积

    点积与叉积 引入点积的标准方法 定义:对于给定的两个同维度的向量求解点积,就是将向量相对应的维度的分量相乘再相加. 几何意义:两个向量w和v的点积,可以看成是向量w在v方向的投影和v长度的乘积:或者是 ...

  9. 00. 线性代数的本质

    写在前面 此分类为b站视频<线性代数的本质>系列的个人笔记,也可以供大家参考.视频很通俗,但是需要高中以上水平,最好学过大学线性代数,以便用一个"新的"角度看待线代,当 ...

  10. 线性代数的本质(一)

    文章目录 线性代数本质(一) 向量的概念及理解 向量的基本运算 线性组合.空间与基 基向量 线性组合 张成空间 向量与点 参考资料 写在最后 线性代数本质(一) 线性代数是多门学科理论研究的基础.回顾 ...

最新文章

  1. 了解和入门注解的应用
  2. boost::geometry::reverse_dispatch用法的测试程序
  3. 数据结构与算法分析:C语言描述(原书第2版 简体中文版!!!) PDF+源代码+习题答案...
  4. python 动态加载与静态加载_python中的元类、静态方法、类方法,动态添加方法...
  5. 学习vim的linux游戏,PacVim:一个学习 vim 命令的命令行游戏 | Linux 中国
  6. mysql自增id用完了_MySQL 自增 ID 用完了怎么办?
  7. -moz火狐 (firefox)CSS
  8. 1016.外网资源下载神器
  9. Excel的python读写
  10. 【Java 进阶】匿名类(代码传递、回调、过滤器)、Lambda表达式(方法引用)、函数式接口(Supplier、Consumer、Predicate、Function)
  11. Johnson算法寻找图中的所有简单环路
  12. 怎样测试通达信软件,如何测试通达信指标成功率?
  13. Android Tips 8
  14. 第5章 Stata非参数检验
  15. DeFi引入真实资产质押,到底靠谱吗?
  16. 密码生成器(C语言实现)
  17. 上周刚号召加班,这周立马双休,董明珠把互联网玩明白了……
  18. 【零成本 超详细】使用Win10自带的Hyper-V管理工具搭建虚拟机
  19. 局部自适应阈值分割方法
  20. 那么详细的智能工厂解决方案,爱了爱了!

热门文章

  1. mysql 数据备份 crontab
  2. (转)iOS Wow体验 - 第六章 - 交互模型与创新的产品概念(1)
  3. 清代考生是如何作弊?很是牛啊!
  4. apache log分析
  5. C#扩展名关联【转】
  6. pythonflask接口开发处理多线程请求_flask是如何处理多个访问请求的?
  7. new与delete函数使用方法以及注意事项
  8. 数乌龟(母牛,兔子....)[打表法]
  9. 【C++:类和对象】处理一个线性表,动态产生线性存储空间,并实现线性表的部分操作
  10. 西农JAVA作业提交系统_Java程序员需要知道的操作系统知识汇总(持续更新)