文章目录

  • 数学基础内容与学习路线
    • week1:线性代数
    • week2:微积分
    • week3:概率论+统计
    • week4:概率论+信息论
    • week5:优化方法
  • 学习数学基础的建议
  • 标量、向量与矩阵
    • 向量的表示
    • 向量的一般属性
    • 向量运算
    • 矩阵定义
    • 矩阵运算
    • 特殊矩阵
  • 线性相关性与矩阵的秩
    • 线性组合与线性表示
    • 线性相关与线性无关
    • 矩阵的秩
  • 矩阵的范数与迹
    • 思考问题
    • 向量的范数
    • 常用的向量范数
    • 矩阵的范数
    • 范数有什么用?
  • 矩阵变换和矩阵分解
    • 线性变换及其矩阵表示
    • 特征值、特征向量
    • 特征值的性质
    • 特征值和特征向量的求法
    • 特征值和特征向量在机器学习中的应用
    • 测试:
    • 正交投影
    • 二次型
    • 二次型补充知识点
    • 矩阵分解(QR分解,SVD奇异值分解)

数学基础内容与学习路线

week1:线性代数

被人誉为21世纪的数学,在机器学习当中十分重要,机器学习中很多算法都是用线性代数来表示的,这样会使得数据和算法十分简洁,降低复杂度。

  • 标量、向量与矩阵,矩阵的运算
  • 线性相关与线性无关,矩阵的秩
  • 矩阵的范数与迹
  • 矩阵变换、矩阵分解
  • PCA推导

week2:微积分

微积分是高等数学的基础,也是机器学习的基础,机器学习中会使用到微分和积分

  • 集合与函数
  • 极限
  • 连续函数和微分
  • 积分
  • 矩阵的求导与Hessian矩阵

week3:概率论+统计

有人说机器学习就是统计学习方法,机器学习确实是以统计学为基础的

  • 概率论基础
  • 常用概率分布
  • 联合分布与边缘分布
  • 条件概率
  • 期望与方差

week4:概率论+信息论

交叉熵损失函数是最常用的基于信息论的

  • 极大似然估计与最大后验估计
  • 贝叶斯法则
  • 信息的度量
  • 信息熵、互信息
  • KL散度(相对熵)

week5:优化方法

比较难。当我们得到了约束条件之后,我们必须使用优化方法得到问题的最优解,在线性回归中,使用最小二乘法得到所有点到直线的最短距离就是一个最常用的优化方法。

  • 最速下降法
  • 梯度下降法
  • 牛顿下降法、拟牛顿法
  • 共轭梯度法
  • adman方法
  • 拉格朗日乘数法

学习数学基础的建议

  • 重视基础概念和定理
  • 不过多纠结具体证明过程
  • 遇到问题多与其他人交流
  • 两本书:
    • 花书、数学之美第2版

标量、向量与矩阵

要求掌握:

  • 标量与向量
  • 向量运算
  • 矩阵定义
  • 矩阵运算
  • 特殊矩阵

标量与向量

  • 向量的元素个数就是维度,如[1,5,8,3,2]就是5维的
  • 标量是一个单独的数,一个用斜体普通小写字母或希腊字母表示,如a
  • 向量是一个同时具有大小和方向的几何对象,一般用粗体小写字母来表示向量,小写字母上有一个小箭头,这才是向量的一般表示法a⃗\vec{a}a。
  • 向量(vector):一个向量是一列数。这些数是有序排列的。通过次序中的索引,我们可以确定每个单独的数。通常我们赋予向量粗估的小写变量名称,比如 x。向量中的元素可以通过带脚标的斜体表示。向量a中的第一个元素是a1,第2个元素是a2…我们也会注明存储在向量中的元素是什么类型的,如果每个元素都属于实数R,并且该向量有n个元素,那么该向量属于实数集R的n次笛卡尔积构成的集合,记为R^n。当需要明确表示向量中的元素时,我们会将元素排列成一个方括号包围的纵列:
    [x1]
    [x2]
    [x3]

    [xn]
    我们可以把向量看作空间中的点,每个元素是不同坐标轴上的坐标。
    有时我们需要索引向量中的一些元素。在这种情况下,我们定义一个包含这些元素索引的集合,然后将该集合写在脚标处,比如指定x1,x3,x6,我们定义交叉集合S={1,3,6},然后写做xSx_SxS​。我们用符号-表示集合的补集中的索引。比如x−1x_{-1}x−1​表示x中除x1x_1x1​之外的所有元素。x_{-S}表示x中除x1,x3,x6之外的所有元素构成的向量

向量的表示

  • 向量一般用粗体小写字母或希腊字母表示,如x等(有时也会用箭头来标识),其元素记作xix_ixi​
  • 向量分类:
    • 行向量
    • 列向量

向量的一般属性

  • 向量的模:所有元素的平方和再开方
  • 向量的范数:∣∣a∣∣1||a||_1∣∣a∣∣1​,∣∣a∣∣2||a||_2∣∣a∣∣2​,∣∣a∣∣∞||a||_\infty∣∣a∣∣∞​
    • 1范数,各元素绝对值的和
    • 2范数,就是向量的模,各元素平方和再开方。如果没有下标,默认为2范数
    • 无穷范数,所有元素绝对值中取最大

向量运算

  • 形状不同的向量不能运算

  • 向量的加法:等于各元素相加

  • 向量的乘积–点积(代数定义):

    • 点积:两个形状一样的向量,各位置的元素相乘之后求和,ab还能写成|ab^T|,其中T表示转置,而||表示行列式。
    • 元素乘/数乘:一个向量和一个标量相乘,等于向量中的各元素与标量相乘。
  • 向量的乘积–点积(几何定义)
    在欧氏空间中,点积可以直观地定义为:
    a∗b=∣a∣∗∣b∣cosθa*b = |a|*|b|cos\thetaa∗b=∣a∣∗∣b∣cosθ, ||表示向量的模,\thta表示 两个向量之间的角度。

欧氏空间中的向量A在向量B上的标量投影是指:
AB=∣A∣cosθA_B = |A|cos\thetaAB​=∣A∣cosθ

  • 向量的乘积–点积(高维空间的定义方式)

矩阵定义

  • 为什么要学习矩阵? 机器学习基础公式:y=f(x)=xwT+by = f(x) = xw^T+by=f(x)=xwT+b ,即可以用来表示线性回归模型,也可以表示神经网络中的前向传播,公式中的w,b,x都是向量或者矩阵。
  • 矩阵(matrix):矩阵是一个二维数组,其中的每一个元素被两个索引(而非一个)所确定。我们通常会赋予矩阵 粗体的大写变量名称,比如A(向量是小写的粗体标量是小写非粗体)。如果一个实数矩阵高度为m,宽度为n,那么我们说A属于Rm∗nR^{m*n}Rm∗n。我们在表示矩阵中的元素时,通常以不加粗的斜体表示,索引用逗号间隔。比如,A1,1A_{1,1}A1,1​表示矩阵A左上的元素,Am,nA_{m,n}Am,n​表示A右下的元素。我们通过用冒号:表示水平坐标,以表示垂直坐标i中的所有元素。比如,Ai,:A_{i,:}Ai,:​表示A中垂直坐标i上的一横排元素。这也被称为A的第i行,同样地,A:,iA_{:,i}A:,i​表示A的第i列。
  • 有时我们需要矩阵值表达式的索引 ,而不是单个元素。在这种情况下,我们在表达式后面接下标,但不必将矩阵的变量名小写化。比如,f(A)i,jf(A)_{i,j}f(A)i,j​表示函数f作用在A上之后输出的矩阵的第i行第j列元素。

矩阵运算

  • 矩阵加法,矩阵的形状一样,相加就是对应位置的元素相加。满足结合律和交换律
  • 矩阵乘法
    • 点积,标准积

      • 两个矩阵A(m,n)A(m,n)A(m,n),B(n,k)B(n,k)B(n,k),只有前一个矩阵的列数和后一个矩阵的行数相等时,才能相乘。结果的形状是m,k(其实这里换成向量也是一样的)
      • 书上的定义:矩阵乘法是矩阵运算中最重要的操作之一。两个矩阵A和B的矩阵乘积(matrix product)是第三个矩阵C。为了使乘法定义良好,矩阵A的列数必须和矩阵B的行数相等。如果矩阵A的形状是mn,矩阵B的形状是np,那么C的形状就是m*p。可以通过将两个或多个矩阵并列放置以书写矩阵乘法,例如:C=ABC=ABC=AB
        具体地,该乘法操作定义为:Ci,j=∑kAi,kBk,jC_{i,j}=\sum_k{A_{i,k}B_{k,j}}Ci,j​=∑k​Ai,k​Bk,j​
    • 元素积,对应元素的乘积就是元素积,形状一样才能元素积。
  • 矩阵的转置
    • 矩阵的重要操作之一。矩阵转置就是以对角线为轴的镜像,从左上角到右下角的对角线为主对角线。矩阵A的转置表示为ATA^TAT,定义:(AT)i,j=Aj,i(A^T)_{i,j}=A_{j,i}(AT)i,j​=Aj,i​。矩阵的转置可以看成以主对角线为轴的一个镜像。
    • 向量可以看成只有一列的矩阵(默认的向量就是列向量!),向量的转置可以看作只有一行的矩阵,有时我们可以通过将向量元素作为行矩阵写在文本行中,然后使用转置操作将其变为标准的列向量,来定义一个向量,比如$ \bold x=[x1,x2,x3]^T$
    • 标量可以看作只有一个元素的矩阵,因此标量的转置等于它本身。

特殊矩阵

  • 全0矩阵:全是0
  • 全1矩阵:全是1
  • 对角矩阵:除了对角线之外其他全是0的方阵
  • 单位矩阵:对角线上全是1,其他全是0的方阵
  • 上三角矩阵:对角线和上方之外全是0的方阵
  • 下三角矩阵:对角线和下方之外全是0的方阵

线性相关性与矩阵的秩

线性组合与线性表示

  • 定义1:给定n给向量b,a1,a2,...,amb,a1,a2,...,amb,a1,a2,...,am,(b,a1,a2,...amb,a1,a2,...amb,a1,a2,...am都是向量)如果存在一组数k1,k2,...,kmk1,k2,...,kmk1,k2,...,km,使得b=k1a1+k2a2+...+kmamb=k1a1+k2a2+...+kmamb=k1a1+k2a2+...+kmam,则称向量b是向是组a1,a2,…,am的线性组合,或称b可由向量组a1,a2,…,am线性表示。
  • 例:任何一个n维向量a都是n维向量组(1,0,…,0)(0,1,…,0)…(0,0,…,1)的线性组合。其中b=kb=kb=k
  • 例:0向量是任何一组向量的线性组合。其中b=k=0b=k=0b=k=0
  • 例:向量组a1,a2,…,am中的任一向量ai(1<=i<=m)都是此向量组的线性组合。ai=0∗a1+...+1∗ai+...+0∗amai=0*a1+...+1*ai+...+0*amai=0∗a1+...+1∗ai+...+0∗am
  • 注:并非每一个向量都可以表示成某几个向量的线性组合
  • 注:一个向量可以由一组向量线性表示,但表示 式却未必唯一。如:a1=(1,2,3)a2=(−1,1,4)a3=(3,3,2)b=(4,5,5),a1=(1,2,3) a2=(-1,1,4) a3=(3,3,2) b=(4,5,5),a1=(1,2,3)a2=(−1,1,4)a3=(3,3,2)b=(4,5,5),则k=(3,−1,0)k=(3,-1,0)k=(3,−1,0)或(1,0,1)(1,0,1)(1,0,1)

线性相关与线性无关

  • 假设有一组向量a1,a2,...ama_1,a_2,... a_ma1​,a2​,...am​
  • 如果存在 不全为零 的数k1,k2,...kmk_1,k_2,...k_mk1​,k2​,...km​,使得k1a1+k2a2+...+kmam=0k_1a_1+k_2a_2+...+k_ma_m=0k1​a1​+k2​a2​+...+km​am​=0,则a1,a2,...,ama_1,a_2,...,a_ma1​,a2​,...,am​是线性相关,否则线性无关
  • 线性相关的判定
    • 通过观察,利用定义即可判断
    • 太复杂了怎么办?
    • 定理一:向量组a1,a2,…,am线性相关的充要条件是a1,a2,…,am中至少有一个向量可由其余m-1个向量线性表示
    • 例:a1=(1,1,1,1) a2=(0,2,1,3) a3=(2,4,3,5) 是否线性相关?是。因为a1*2+a2=a3,由定理一可知,a1,a2,a3线性相关
    • 常用结论:含有零向量的向量组一定线性相关。单位向量组线性无关。单位向量是模等于1的向量

矩阵的秩

  • 定义2:一个向量组AAA的秩是AAA的线性无关的向量的个数

  • a1=(1,1,1,1),a2=(0,2,1,3),a3=(2,4,3,5)a_1=(1,1,1,1), a_2=(0,2,1,3), a_3=(2,4,3,5)a1​=(1,1,1,1),a2​=(0,2,1,3),a3​=(2,4,3,5)这个向量组的秩是多少?a3=2a1+a2a_3=2a_1+a2a3​=2a1​+a2,但是a1,a2a_1,a_2a1​,a2​线性无关,所以这个向量组的秩是2。怎么知道a1a2a_1a_2a1​a2​向量无关??

  • 定义3:如果把一个向量组看成一个矩阵,则向量组的秩就是矩阵的秩。

  • 还是上面那个例题,现在转成矩阵:
    A=[1,0,21,2,41,1,31,3,5]A=\left[{ 1, 0, 2 \\ 1, 2, 4 \\ 1, 1, 3 \\ 1, 3, 5 }\right] A=[1,0,21,2,41,1,31,3,5]
    这个矩阵的秩和组成它的向量组的秩一样,都是2

矩阵的范数与迹

思考问题

如何度量两个向量的相似程度?

对于实数和复数,由于定义了它们的绝对值或模,这样我们就可以用这个度量来表示它们的大小(几何上就是长度),进而可以考察两个实数或复数的距离。

例1。复数X=a+biX=a+biX=a+bi的长度或模指的是∣∣x∣∣=a2+b2||x||=\sqrt{a^2+b^2}∣∣x∣∣=a2+b2​

例2。n维欧氏空间中向量xxx的长度或模定义为∣∣X∣∣=x12+x22+...+xn2||X||=\sqrt{x_1^2+x_2^2+...+x_n^2}∣∣X∣∣=x12​+x22​+...+xn2​​

向量的范数

定义一 在一个n维线性空间V中,若对于任意向量X∈MX\in MX∈M

常用的向量范数

  • 1-范数 ∣∣X∣∣1=∑i=1n∣xi∣||X||_1=\sum_{i=1}^n|x_i|∣∣X∣∣1​=∑i=1n​∣xi​∣即向量所有元素绝对值之和
  • 2-范数∣∣X∣∣2=∑i=1nxi2||X||_2=\sqrt{\sum_{i=1}^n{x_i^2}}∣∣X∣∣2​=∑i=1n​xi2​​又称欧氏范数
  • ∞\infty∞-范数∣∣X∣∣n=max∣xi∣||X||_n=max|x_i|∣∣X∣∣n​=max∣xi​∣即取元素绝对值最大

求下列向量的各种常用范数x=(1,−2,3)Tx=(1,-2,3)^Tx=(1,−2,3)T

解:

∣∣x∣∣1=∣x1∣+∣x2∣+∣x3∣=6||x||_1=|x_1|+|x_2|+|x_3|=6∣∣x∣∣1​=∣x1​∣+∣x2​∣+∣x3​∣=6

∣∣x∣∣2=∑in∣xi∣2=14||x||_2=\sqrt{\sum_i^n{|x_i|^2}}=\sqrt{14}∣∣x∣∣2​=∑in​∣xi​∣2​=14​

∣∣x∣∣n=max⁡i3∣xi∣=3||x||_n=\max_i^3{|x_i|}=3∣∣x∣∣n​=maxi3​∣xi​∣=3

范数都是要求绝对值的

矩阵的范数

  • 1-范数(也称列范数)∣∣A∣∣1=max⁡jn∑i=1n∣aij∣||A||_1=\max_j^n\sum_{i=1}^n{|a_{ij}|}∣∣A∣∣1​=maxjn​∑i=1n​∣aij​∣
  • ∞\infty∞-范数(也称行范数)∣∣A∣∣∞=maxin∑j=1n∣aij∣||A||_\infty=max_i^n\sum_{j=1}^n{|a_{ij}}|∣∣A∣∣∞​=maxin​∑j=1n​∣aij​∣
  • 2-范数 ∣∣A∣∣2=λmax(ATA)||A||_2=\sqrt{\lambda_{max}(A^TA)}∣∣A∣∣2​=λmax​(ATA)​
  • λmax(ATA)\lambda_{max}(A^TA)λmax​(ATA)为ATA^TAT乘以AAA的特征值的绝对值的最大值

例,求矩阵AAA的各种常用范数
A=[120−12−1011]A=\left[ \begin{matrix} 1&amp;2&amp;0 \\ -1&amp;2&amp;-1 \\ 0&amp;1&amp;1 \end{matrix} \right] A=⎣⎡​1−10​221​0−11​⎦⎤​

范数有什么用?

范数是衡量向量和矩阵的距离,和它们的相似度,在机器学习的分类问题当中,如何判断两个特性向量和矩阵的相似性?

定义3 在线性代数中,一个n∗nn*nn∗n矩阵AAA的主对角线(从左上方至右下方的对角线)上各个元素的总和被称为矩阵AAA的迹(或迹数),一般记住tr(A)tr(A)tr(A).只有方阵才有迹

矩阵变换和矩阵分解

线性变换及其矩阵表示

定义1 nnn个变量x1,x2,...,xnx_1,x_2,...,x_nx1​,x2​,...,xn​与mmm个变量y1,y2,...,ymy_1,y_2,...,y_my1​,y2​,...,ym​之间的关系

特征值、特征向量

定义2 设AAA是nnn阶矩阵,若存在数λ\lambdaλ和非零向量xxx,使得Ax=λx(x≠0)Ax=\lambda{x}(x\ne0)Ax=λx(x̸​=0),则称λ\lambdaλ是AAA的一个特征值,XXX为AAA的对应特征值λ\lambdaλ的特征向量。(xxx为非零向量)

特征值的性质

若λ\lambdaλ 是AAA的特征值,即Ax=λx(x≠0)Ax=\lambda{x}(x\ne0)Ax=λx(x̸​=0),则:

  • kλk\lambdakλ是kAkAkA的特征值(k是常数),且kAx=kλxkAx=k\lambda{x}kAx=kλx
  • λm\lambda^mλm是AmA^mAm的特征值(m为正整数),且Amx=λmxA^mx=\lambda^mxAmx=λmx
  • 若AAA可逆,则λ−1\lambda^{-1}λ−1是A−1A^{-1}A−1的特征值,且A−1x=λ−1AxA^{-1}x=\lambda^{-1}AxA−1x=λ−1Ax,λ−1∣A∣\lambda^{-1}|A|λ−1∣A∣是A∗A^*A∗的特征值,且A∗x=λ−1∣A∣xA^*x=\lambda^{-1}|A|xA∗x=λ−1∣A∣x
  • φ(x)\varphi(x)φ(x)是xxx的多项式,则φ(λ)是φ(A)\varphi(\lambda)是\varphi(A)φ(λ)是φ(A)的特征值,且φ(A)x=φ(λ)x\varphi(A)x=\varphi(\lambda)xφ(A)x=φ(λ)x
  • 矩阵AAA和ATA^TAT的特征值相同,特征多项式相同。

特征值和特征向量的求法

Ax=λxAx=\lambda{x}Ax=λx可以改写为(A−λI)x=0(A-\lambda{I})x=0(A−λI)x=0

这实际上是一个nnn个未知数nnn个方程的齐次线性方程组,特征向量可看成是它的一个非零解。而此齐次线性方程组有非零解的充要条件是∣A−λI∣=0|A-\lambda{I}|=0∣A−λI∣=0(行列式,不是绝对值和模),即:
∣a11−λa12...a1na22a22−λ...a2n............an1an2...ann−λ∣=0\left| \begin{matrix} a_{11}-\lambda &amp; a_{12} &amp; ... &amp; a_{1n} \\ a_{22} &amp; a_{22}-\lambda &amp; ... &amp; a_{2n} \\ ... &amp; ... &amp; ... &amp; ... \\ a_{n1} &amp; a_{n2} &amp; ... &amp; a_{nn}-\lambda \end{matrix} \right|= 0 ∣∣∣∣∣∣∣∣​a11​−λa22​...an1​​a12​a22​−λ...an2​​............​a1n​a2n​...ann​−λ​∣∣∣∣∣∣∣∣​=0
称为矩阵AAA的特征方程

从AAA的特征方程中解出的λ\lambdaλ的值就是AAA的特征值。然后通过求解方程组(A−λIx=0)(A-\lambda{I}x=0)(A−λIx=0),就可以求出AAA的特征向量。

特征值和特征向量在机器学习中的应用

  • 主成分分析
  • 流行学习
  • LDA
  • 线性判别和其他算法都会用到特征向量的理论和方法

测试:

{y1=a1b1y2=a2b2yn=anbnχ\begin{cases} y_1 = a_1b_1 \\ y_2 = a_2b_2 \\ y_n = a_nb_n &amp; \chi \end{cases} ⎩⎪⎨⎪⎧​y1​=a1​b1​y2​=a2​b2​yn​=an​bn​​χ​

正交投影

概念:在线性代数和泛函分析中,投影是从向量空间映射到自身的一种线性变换。具体来说,正交投影是指像空间UUU和零空间WWW相互正交子空间的投影。

从解方程角度看,Ax=bAx=bAx=b可能无解,因为对任意的xxx,AxAxAx总是在AAA的列子空间里,若向量bbb不在列空间里,则方程无解。但是我们可以将bbb利用正交投影矩阵投影到AAA的列子空间里得到正交投影yyy,然后求解Ax=yAx=yAx=y,寻找一个最佳近似解xxx。

二次型

则多项式可以写为:

f(x1,x2,...,xn)=XTAXf(x_1,x_2,...,x_n)=X^TAXf(x1​,x2​,...,xn​)=XTAX 该多项式是nnn元二次型,该多项式也为二次型的矩阵形式

二次型补充知识点

二次型经过变换,可以写成平方和形式:

d1y12+d2y22+...+dnyn2d_1y_1^2+d_2y_2^2+...+d_ny_n^2d1​y12​+d2​y22​+...+dn​yn2​

称为多项式一个标准型

注:

  • 任意二次型的标准型是存在的
  • 可应用配方法得到二次型的标准型

矩阵分解(QR分解,SVD奇异值分解)

定理1 设非奇异矩阵A∈Rn∗nA\in R^{n*n}A∈Rn∗n,则一定存在正交矩阵QQQ,上三角矩阵RRR,使得:A=QRA=QRA=QR

且当RRR的主对角元素均为正数时,该分解式是唯一的。

注:正交矩阵是QQT=E,EQQ^T=E,EQQT=E,E为单位矩阵

奇异矩阵是行列式等于0的矩阵,非奇异矩阵是行列式不等于0的矩阵。

正交矩阵

QR分解是PCA的基础?

SVD奇异值分解

机器学习基础01-线性代数相关推荐

  1. 《机器学习实战》笔记(01):机器学习基础

    机器学习基础 机器学习能让我们自数据集中受到启发,换句话说利用计算机来彰显数据背后的真实含义. 机器学习在日常生活中的应用 人脸识别 手写数字识别 垃圾邮件过滤 电商的产品推荐 天气预测 疾病诊断 - ...

  2. 基础篇 | 01 机器学习基础

    本系列概述 核心内容是深度学习,只不过我们会进行代码实践,来巩固我们讲的概念的基础.会使用机器学习开发可以实际使用的工程项目,这也是我们这个系列跟其它机器学习最大区别的地方. 深度学习的意义 当然,不 ...

  3. 小白机器学习基础算法学习必经之路

    https://www.toutiao.com/a6657427848900379150/ 2019-02-14 15:21:13 未来,人工智能是生产力,是变革社会的主要技术力量之一. 掌握人工智能 ...

  4. KNN算法的机器学习基础

    KNN算法的机器学习基础 https://mp.weixin.qq.com/s/985Ym3LjFLdkmqbytIqpJQ 本文原标题 : Machine Learning Basics with ...

  5. 【NLP机器学习基础】从线性回归和Logistic回归开始

    古语常云:"大道至简",万事万物纷繁复杂,最终却归至几个最简单的道理.我常常在想,如今很火的AI领域是否也是如此.将AI真正学懂学会的过程就像一场遥不可及的漫长攀登,起始于晦涩难懂 ...

  6. 【机器学习基础】机器学习的损失函数小结

    本文为机器学习基础 第一篇 2020这个充满变化的不平凡的一年过去了,孕育着希望和机遇的2021即将到来,在此祝愿所有朋友幸福美满,蒸蒸日上,心想事成,欢喜如意,新年快乐! 最近比较忙,好长时间没更新 ...

  7. [Python人工智能] 三.theano实现分类神经网络及机器学习基础

    从本篇文章开始,作者正式开始研究Python深度学习.神经网络及人工智能相关知识.前两篇文章讲解了神经网络基础概念.Theano库的安装过程及基础用法.theano实现回归神经网络,这篇文章主要讲解机 ...

  8. 彭博社推出“机器学习基础”课程

    点击右上角关注本公众号,获取计算机视觉与机器学习最新算法与教程资讯. 彭博社是全球最大的金融信息服务供应商,其数据终端系统"彭博社专业服务"可以帮助客户查阅和分析实时的金融市场数据 ...

  9. 机器学习中的线性代数之矩阵求导

    前面针对机器学习中基础的线性代数知识,我们做了一个常用知识的梳理.接下来针对机器学习公式推导过程中经常用到的矩阵求导,我们做一个详细介绍. 矩阵求导(Matrix Derivative)也称作矩阵微分 ...

  10. 2.机器学习基础(一)

    文章目录 第二章 机器学习基础 2.1 基本概念 2.1.1 什么是神经网络 2.1.2 各种常见算法图示 2.1.3 计算图的导数计算 2.1.4 理解局部最优与全局最优 2.1.5 大数据与深度学 ...

最新文章

  1. 2020mysql下载教程_Windows10 安装MySQL详细教程2020版 亲测亲写
  2. 浏览器同源策略以及跨域请求时可能遇到的问题
  3. java mvc 小程序_[Java教程]Spring MVC 的环境搭建和入门小程序
  4. python手机版下载官方-Python3.6.6
  5. 卡片的sak为不支持的类型_“师傅”两字是不能随便叫的!78%的网友不支持称顺风车主为“师傅”...
  6. Android TextView全属性
  7. vue+Element ui中使用 upload实现Excel文件上传
  8. [转]IntelliJ IDEA 2019.3正式发布,给我们带来哪些新特性?
  9. 服务禁止方法_Linux禁止ping以及开启ping的方法
  10. Python批量检测服务器端口可用性与Socket函数使用
  11. ❤️Spring的声明式事务
  12. 下载pip、安装pip
  13. 国内几款通用论坛程序简介和比较
  14. 文献阅读|Nomograms列线图在肿瘤中的应用
  15. 多媒体计算机辅助英语教学,多媒体计算机辅助英语教学
  16. 单方差分析MATLAB,MATLAB单因素方差分析.PDF
  17. 初中计算机面试题目,2019年上半年教师资格证面试《初中信息技术》真题及答案...
  18. 使用PRSice进行多基因风险评分分析
  19. 推荐使用Windows10企业版LTSC的理由
  20. 激光电视好还是OLED电视好?两者各有什么优缺点

热门文章

  1. html运行老是页面加载错误,为什么我打开网页,总是会出现网页上有错误?
  2. vue websocket 公众号扫描二维码登录PC端
  3. 至联云讲解《助力IPFS飞奔》
  4. SQL Server 2008 正式版下载地址+安装指南+序列号
  5. 一部手机不用任何软件轻松下载闲鱼短视频
  6. 视频教程-Unity快速入门系列课程(第1部)-Unity3D
  7. Bentley 软件公司宣布收购交通仿真技术领先企业 INRO
  8. 官方首发_ask2问答系统下载3.0下载
  9. 论文学习:Lip Reading-Based User Authentication Through Acoustic Sensing on Smartphones
  10. 应届生Java面试经验总结