西瓜书研读系列:
西瓜书研读——第三章 线性模型:一元线性回归

西瓜书研读——第三章 线性模型:多元线性回归

西瓜书研读——第三章 线性模型:线性几率回归(逻辑回归)

  • 主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~
  • 人群定位:学过高数会求偏导、线代会矩阵运算、概率论知道啥是概率
  • 原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅
  • 800G人工智能学习资料关注公众号:猛男技术控

3.4 线性判别分析 LDA

3.4.1 核心思想

给定训练样例集,设法将高维的样例投影到一条直线(最佳鉴别矢量空间)上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离,即模式在该空间中有最佳的可分离性。

将训练样本投影到一条直线上,使得同类的样例尽可能近,不同类的样例尽可能远。如图所示:

  • 数据集 D={(x_i,yi)}i=1m,yi∈{0,1}D=\left\{ (\boldsymbol{x}\_i,y_i) \right\}_{i=1}^m,y_i \in \left\{0,1\right\}D={(x_i,yi​)}i=1m​,yi​∈{0,1}

  • XiX_iXi​ 表示第 i∈{0,1}i \in \left\{0,1\right\}i∈{0,1} 类示例的集合

  • μi\boldsymbol{\mu}_iμi​ 表示第 i∈{0,1}i \in \left\{0,1\right\}i∈{0,1} 类示例的均值向量(样本的中心)

  • Σi\boldsymbol{\Sigma}_iΣi​ 表示第 i∈{0,1}i \in \left\{0,1\right\}i∈{0,1} 类示例的协方差矩阵


知识补充:

1、协方差

  • 方差:方差是用来度量单个随机变量离散程度,当随机变量的可能值集中在数学期望的附近时,方差较小; 反之, 则方差较大。方差能反映随机变量的一切可能值在数学期望周围的分散程度。

  • 而协方差则一般用来刻画两个随机变量相似程度,如果结果为正值,则说明两者是正相关的,否则是负相关的。需要注意的是,协方差是计算不同特征之间的统计量,不是不同样本之间的统计量。

    • 其中,方差的计算公式为
      σx2=1n−1∑i=1n(xi−xˉ)2\sigma_x^2=\frac{1}{n-1}\sum_{i=1}^n\left(x_i-\bar{x}\right)^2 σx2​=n−11​i=1∑n​(xi​−xˉ)2
  • 协方差的计算公式被定义为

σ(x,y)=1n−1∑i=1n(xi−xˉ)(yi−yˉ)\sigma\left(x,y\right)=\frac{1}{n-1}\sum_{i=1}^{n}\left(x_i-\bar{x}\right)\left(y_i-\bar{y}\right) σ(x,y)=n−11​i=1∑n​(xi​−xˉ)(yi​−yˉ​)

我们发现:方差 σx2\sigma_x^2σx2​可视作随机变量xxx关于其自身的协方差σ(x,x)\sigma\left(x,x\right)σ(x,x)

根据方差的定义,给定ddd个随机变量 xk,k=1,2,...,d,x_k,k=1,2,...,d ,xk​,k=1,2,...,d,则这些随机变量的方差
σ(xk,xk)=1n−1∑i=1n(xki−xˉk)2,k=1,2,...,d\sigma({x_k},{x_k})=\frac{1}{n-1}\sum_{i=1}^n\left(x_{ki}-\bar{x}_k\right)^2,k=1,2,...,d σ(xk​,xk​)=n−11​i=1∑n​(xki​−xˉk​)2,k=1,2,...,d
xkix_{ki}xki​ 表示随机变量 xkx_kxk​ 中的第$ i $个观测样本, $n 表示样本量,每个随机变量所对应的观测样本数量均为表示样本量,每个随机变量所对应的观测样本数量均为表示样本量,每个随机变量所对应的观测样本数量均为 n $。

对于这些随机变量,我们还可以根据协方差的定义,求出两两之间的协方差,即
σ(xm,xk)=1n−1∑i=1n(xmi−xˉm)(xki−xˉk)\sigma\left(x_m,x_k\right)=\frac{1}{n-1}\sum_{i=1}^n\left(x_{mi}-\bar{x}_m\right)\left(x_{ki}-\bar{x}_k\right) σ(xm​,xk​)=n−11​i=1∑n​(xmi​−xˉm​)(xki​−xˉk​)

因此,协方差矩阵为:
Σ=[σ(x1,x1)⋯σ(x1,xd)⋮⋱⋮σ(xd,x1)⋯σ(xd,xd)]∈Rd×d\Sigma=\left[ \begin{array}{ccc}\sigma({x_1},{x_1}) \cdots \sigma \left(x_1,x_d\right) \\ \vdots \ddots \vdots \\ \sigma\left(x_d,x_1\right) \cdots \sigma({x_d},{x_d}) \\ \end{array} \right]\in\mathbb{R}^{d\times d} Σ=⎣⎡​σ(x1​,x1​)⋯σ(x1​,xd​)⋮⋱⋮σ(xd​,x1​)⋯σ(xd​,xd​)​⎦⎤​∈Rd×d
其中,对角线上的元素为各个随机变量的方差,非对角线上的元素为两两随机变量之间的协方差,根据协方差的定义,我们可以认定:矩阵ΣΣΣ 为对称矩阵(symmetric matrix),其大小为$ d×d$ 。

2、内积

内积(点乘/数量积)是对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,是一个标量。

如下所示,对于向量a和向量b:
a=[a1;⋯;an]∈Rn×1b=[b1;⋯;bn]∈Rn×1⟨a⃗,b⃗⟩=a⃗⋅b⃗=a′b=∑i=1naibi\mathbf{a}=\left[a_1;\cdots;a_n\right]\in\mathbb{R}^{n\times1}\\ \mathbf{b}=\left[b_1;\cdots;b_n\right]\in\mathbb{R}^{n\times1}\\ \langle\vec{a},\vec{b}\rangle=\vec{a}\cdot\vec{b}=\mathbf{a}^\prime\mathbf{b}=\sum_{i=1}^na_ib_i a=[a1​;⋯;an​]∈Rn×1b=[b1​;⋯;bn​]∈Rn×1⟨a,b⟩=a⋅b=a′b=i=1∑n​ai​bi​

由此想到矩阵乘法,相乘得到的矩阵就是对应向量
c1=[a1a2a3][b1b2b3]=∑i=13aibic_1=\begin{bmatrix}a_1&a_2&a_3\end{bmatrix}\begin{bmatrix}b_1\\b_2\\b_3\end{bmatrix}=\sum_{i=1}^{3}{a_ib_i} c1​=[a1​​a2​​a3​​]⎣⎡​b1​b2​b3​​⎦⎤​=i=1∑3​ai​bi​

几何意义

当两个向量都是单位向量时,表示两个向量之间的夹角的余弦

当一个是单位向量时,表示另外一个向量在这个单位向量方向上的投影长度。

一般地,a⃗⋅b⃗=∥a⃗∥∥b⃗∥cos⁡θ\vec{a}\cdot\vec{b}=\parallel\vec{a}\parallel\parallel\vec{b}\parallel\cos\thetaa⋅b=∥a∥∥b∥cosθ

概括而言,可以这样来理解向量内积:向量a、b的内积等于向量a在b方向的分量(或投影)与b的乘积,当a、b垂直时,a在b方向上无分量,所以内积为0。

3、范数

是具有“长度”概念的函数。是矢量空间内的所有矢量赋予非零的正长度大小

1范数:所有元素绝对值的和。
∣∣x∣∣1=∑i=1N∣xi∣||x||_1 = \sum_{i=1}^N|x_i| ∣∣x∣∣1​=i=1∑N​∣xi​∣
2范数:所有元素平方和的开方。
∣∣x∣∣2=∑i=1Nxi2||\textbf{x}||_2 =\sqrt{\sum_{i=1}^Nx_i^2} ∣∣x∣∣2​=i=1∑N​xi2​​
无穷范数:正无穷范数:所有元素中绝对值最小的。负无穷范数:所有元素中绝对值最大的。
∣∣x∣∣∞=max⁡i∣xi∣||\textbf{x}||_\infty = \max_{i}|x_i| ∣∣x∣∣∞​=imax​∣xi​∣


则两类样本的中心在直线上的投影分别为wTu0、wTu1w^Tu_0、w^Tu_1wTu0​、wTu1​

  • 经投影后异类样本尽可能远,则:

max∥wTμ0−wTμ1∥22=∥∣wT∥μ0∥cosθ0−∣wT∥μ1∥cosθ1∥22max \, \|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2 \\ = \||\boldsymbol w^{\mathrm{T}}\|\boldsymbol{\mu}_{0}\|cos\theta_0-|\boldsymbol w^{\mathrm{T}}\|\boldsymbol{\mu}_{1}\|cos\theta_1\|_2^2 \\ max∥wTμ0​−wTμ1​∥22​=∥∣wT∥μ0​∥cosθ0​−∣wT∥μ1​∥cosθ1​∥22​

注:这里并不是严格的投影长度,而是放大后的,因为乘了个∣wT∣|\boldsymbol w^{\mathrm{T}}|∣wT∣,但这并不影响求最大值,乘上w的模后更方便矩阵计算。

将所有样本都投影到直线上,则两类样本的方差分别为:wT∑0w、wT∑1ww^T\sum_0w、w^T\sum_1wwT∑0​w、wT∑1​w,同类样本方差尽可能小,则:

minwT∑0w=wT(∑(x−u0)(x−u0)T)w=∑(wTx−wTu0)(wTx−wTu0)Tmin \,w^T\sum_{0} w =w^T(\sum(x-u_0)(x-u_0)^T)w\\=\sum(w^Tx-w^Tu_0)(w^Tx-w^Tu_0)^T minwT0∑​w=wT(∑(x−u0​)(x−u0​)T)w=∑(wTx−wTu0​)(wTx−wTu0​)T

注:方差只针对单个随机变量,是刻画同一样本直接的离散程度。而协方差可分为自协方差(是一个随机向量元素之间的协方差,也叫协方差矩阵,有时也叫方差矩阵)和互协方差(是两个随机向量元素之间的协方差)。书上的协方差则指的是某个样本的自协方差。

3.4.2 目标函数

要同时考虑一类样本尽可能远,同类样本尽肯能近,同时考虑二者,所以可以用以下目标函数:

maxJ=∥wTμ0−wTμ1∥22wT∑0w+wT∑1ww(3.32)max \, J = \cfrac{\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2}{w^T\sum_0w+w^T\sum_1ww} \tag{3.32} maxJ=wT∑0​w+wT∑1​ww∥wTμ0​−wTμ1​∥22​​(3.32)
[推导]:
J=∥wTμ0−wTμ1∥22wT(Σ0+Σ1)w=∥(wTμ0−wTμ1)T∥22wT(Σ0+Σ1)w=∥(μ0−μ1)Tw∥22wT(Σ0+Σ1)w=[(μ0−μ1)Tw]T(μ0−μ1)TwwT(Σ0+Σ1)w=wT(μ0−μ1)(μ0−μ1)TwwT(Σ0+Σ1)w(3.32)\begin{aligned} J &= \cfrac{\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\|(\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1})^{\mathrm{T}}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\|(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\left[(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\right]^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \end{aligned} \tag{3.32} J​=wT(Σ0​+Σ1​)w∥wTμ0​−wTμ1​∥22​​=wT(Σ0​+Σ1​)w∥(wTμ0​−wTμ1​)T∥22​​=wT(Σ0​+Σ1​)w∥(μ0​−μ1​)Tw∥22​​=wT(Σ0​+Σ1​)w[(μ0​−μ1​)Tw]T(μ0​−μ1​)Tw​=wT(Σ0​+Σ1​)wwT(μ0​−μ1​)(μ0​−μ1​)Tw​​(3.32)

定义:

  • 类内散度矩阵

Sw=Σ0+Σ1=∑x∈X0(x−μ0)(x−μ0)T+∑x∈X1(x−μ1)(x−μ1)T\begin{align} \boldsymbol{S}_w & = \boldsymbol{\Sigma}_0 + \boldsymbol{\Sigma}_1 \\ & = \sum_{\boldsymbol{x} \in X_0}(\boldsymbol{x}-\boldsymbol{\mu}_0)(\boldsymbol{x}-\boldsymbol{\mu}_0)^{\text{T}} + \sum_{\boldsymbol{x} \in X_1}(\boldsymbol{x}-\boldsymbol{\mu}_1)(\boldsymbol{x}-\boldsymbol{\mu}_1)^{\text{T}} \end{align} Sw​​=Σ0​+Σ1​=x∈X0​∑​(x−μ0​)(x−μ0​)T+x∈X1​∑​(x−μ1​)(x−μ1​)T​​

  • 类间散度矩阵

Sb=(μ0−μ1)(μ0−μ1)T\boldsymbol{S}_b = (\boldsymbol{\mu_{0}}-\boldsymbol{\mu_{1}})(\boldsymbol{\mu_{0}}-\boldsymbol{\mu_{1}})^{\text{T}} Sb​=(μ0​−μ1​)(μ0​−μ1​)T

公式3.32可以写为:
J=wTSbwwTSww(3.35)\begin{align} J & = \frac{\boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w}}{\boldsymbol{w}^{\text{T}}\boldsymbol{S}_w\boldsymbol{w}} \end{align} \tag{3.35} J​=wTSw​wwTSb​w​​(3.35)
这就是LSA欲最大化的目标函数,即Sw,SbS_w,S_bSw​,Sb​的广义瑞利商(generalized Rayleigh quotient)

3.4.3 函数求解

  • 分子分母都是关于 w\boldsymbol{w}w 的二次项,该优化问题硬解是解不出w的,因为是比例,上下都有w,最终可以约分,如W=awW=awW=aw,这样就是多个解。但w的大小是不影响最终结果的。

  • 因此可假设,wTSww=1\boldsymbol{w}^{\text{T}}\boldsymbol{S}_w\boldsymbol{w} = 1wTSw​w=1,(当然也可以假设wTSbw=100\boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w} = 100wTSb​w=100或∣∣w∣∣=1||w||=1∣∣w∣∣=1),这样就固定了w,则原广义瑞利商变为最大化 wTSbw\boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w}wTSb​w

  • 这样该优化问题就可以解了
    min⁡w−wTSbws.t.wTSww=1(3.36)\begin{align} \underset{\boldsymbol{w}}{\min} - \boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w} \\ \text{s.t.} \quad \boldsymbol{w}^{\text{T}}\boldsymbol{S}_w\boldsymbol{w} = 1 \end{align} \tag{3.36} wmin​−wTSb​ws.t.wTSw​w=1​(3.36)
    一般优化问题都是求其最小最优解,在目标函数前加个符号就将最大化问题转换为了最小化问题。

知识补充:

拉格朗日乘子法

只能保证是极值点,不能保证是极大值还是极小值,要具体分析

由公式(3.36)可得拉格朗日函数为
L(w,λ)=−wTSbw+λ(wTSww−1)L(\boldsymbol w,\lambda)=-\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w+\lambda(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1) L(w,λ)=−wTSb​w+λ(wTSw​w−1)
对w\boldsymbol ww求偏导可得
∂L(w,λ)∂w=−∂(wTSbw)∂w+λ∂(wTSww−1)∂w=−(Sb+SbT)w+λ(Sw+SwT)w\begin{aligned} \cfrac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} &= -\cfrac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w)}{\partial \boldsymbol w}+\lambda \cfrac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1)}{\partial \boldsymbol w} \\ &= -(\mathbf{S}_b+\mathbf{S}_b^{\mathrm{T}})\boldsymbol w+\lambda(\mathbf{S}_w+\mathbf{S}_w^{\mathrm{T}})\boldsymbol w \end{aligned} ∂w∂L(w,λ)​​=−∂w∂(wTSb​w)​+λ∂w∂(wTSw​w−1)​=−(Sb​+SbT​)w+λ(Sw​+SwT​)w​
由于Sb=SbT,Sw=SwT\mathbf{S}_b=\mathbf{S}_b^{\mathrm{T}},\mathbf{S}_w=\mathbf{S}_w^{\mathrm{T}}Sb​=SbT​,Sw​=SwT​,所以
∂L(w,λ)∂w=−2Sbw+2λSww\cfrac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} = -2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w ∂w∂L(w,λ)​=−2Sb​w+2λSw​w
令上式等于0即可得
−2Sbw+2λSww=0Sbw=λSww-2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w=0 \\ \mathbf{S}_b\boldsymbol w=\lambda\mathbf{S}_w\boldsymbol w −2Sb​w+2λSw​w=0Sb​w=λSw​w
由于
Sbw=(μ0−μ1)(μ0−μ1)Tw\mathbf{S}_b\boldsymbol w = (\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w} Sb​w=(μ0​−μ1​)(μ0​−μ1​)Tw
所以
(μ0−μ1)(μ0−μ1)Tw=λSww\\ (\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\lambda\mathbf{S}_w\boldsymbol w (μ0​−μ1​)(μ0​−μ1​)Tw=λSw​w
若令(μ0−μ1)Tw=γ(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\gamma(μ0​−μ1​)Tw=γ(是个标量),则
γ(μ0−μ1)=λSwww=γλSw−1(μ0−μ1)\gamma(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})=\lambda\mathbf{S}_w\boldsymbol w \\ \boldsymbol{w}=\frac{\gamma}{\lambda}\mathbf{S}_{w}^{-1}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}) γ(μ0​−μ1​)=λSw​ww=λγ​Sw−1​(μ0​−μ1​)

由于最终要求解的w\boldsymbol{w}w不关心其大小,只关心其方向,所以其大小可以任意取值。由于μ0\boldsymbol{\mu}_{0}μ0​和μ1\boldsymbol{\mu}_{1}μ1​的大小是固定的,所以γ\gammaγ这个标量的大小只受w\boldsymbol{w}w的大小影响,因此可以调整w\boldsymbol{w}w的大小使得γ=λ\gamma=\lambdaγ=λ

由于Sbw=(μ0−μ1)(μ0−μ1)Tw\mathbf{S}_b\boldsymbol w = (\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}Sb​w=(μ0​−μ1​)(μ0​−μ1​)Tw, (μ0−μ1)Tw(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}(μ0​−μ1​)Tw是一个标量,所以Sbw\mathbf{S}_b\boldsymbol wSb​w的方向与μ0−μ1\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}μ0​−μ1​的方向一致,西瓜书中所说的“不妨令Sbw=λ(μ0−μ1)\mathbf{S}_b\boldsymbol w=\lambda(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})Sb​w=λ(μ0​−μ1​)”也等价于令(μ0−μ1)Tw=γ=λ(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\gamma= \lambda(μ0​−μ1​)Tw=γ=λ,因此,此时γλ=1\frac{\gamma}{\lambda}=1λγ​=1,求解出的w\boldsymbol{w}w即为公式(3.39)
w=Sw−1(μ0−μ1)(3.39)\boldsymbol{w} = \boldsymbol{S}_w^{-1}(\boldsymbol{\mu}_0 - \boldsymbol{\mu}_1) \tag{3.39} w=Sw−1​(μ0​−μ1​)(3.39)


考虑到数值解的稳定性,在实践中通常是对SwS_wSw​进行奇异值分解。

即 Sw=UΣUTS_w=UΣU^TSw​=UΣUT,Sw−1=VΣ−1UTS_{w}^{-1}=VΣ^{-1}U^TSw−1​=VΣ−1UT

值得注意的是,LSA还可以从贝叶斯决策理论的角度来阐释,具体在学到贝叶斯模型的时候说。


知识补充

广义特征值

广义瑞利商

厄米矩阵可以理解为复数 域上的转置矩阵


3.5 多分类学习

拆解法

基本思路

  • 即将多分类任务拆分为若干个二分类任务求解
  • 具体来说,先对问题进行拆分,然后为拆出的每个二分类任务训练一个分类器;在测试时,对这些分类器的预测结果进行集成以获得最终的多分类结果

拆分策略

  • “一对一”(One vs. One,简称 OvO)
  • “一对其余”(One vs. Rest,简称 OvR)
  • “多对多”(Many vs. Many,简称 MvM)

OvO

  • 将这N个类别两两配对,从而产生N(N-1)/2个二分类任务
  • 在测试阶段,新样本将同时提交给所有分类器,欲使我们将得到N(N-1)/2个分类结果,最终结果通过投票产生

OvR

  • 每次将一个类的样例作为正例、所有其他类的样例作为反例来训练N个分类器
  • 在测试阶段,若仅有一个分类器预测为正类,则对应的类别标记作为最终结果分类

对比

  • 在测试时,OvO的存储开销和测试时间开销通常比OvR更大
  • 在训练时,OvR的每个分类器均使用全部的训练样例,而OvO得每个分类器仅用到两个类的样例,训练开销比较小

MvM

每次将若干个类作为正类,若干个其他类作为反类

纠错输出码(Error Correcting Output Codes,简称 ECOC)

工作过程

  • 编码

    • 对N个类别做M次划分,每次划分将一部分类别划为正类,一部分划为反类,从而形成一个二分类训练集
    • 这样一共产生M个训练集,可训练出M个分类器
  • 解码

    • M个分类器分别对测试样本进行预测,这些预测标记形成一个编码
    • 将这个预测编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测结果

编码矩阵 (coding matrix)

  • 常见形式

    • 二元码: (正类\反类)

    • 三元码:(正类\反类\停用类)

为什么称“纠错输出码”?

  • 在测试阶段,ECOC编码对分类器的错误有一定的容忍和修正能力

  • 一般来说,对同一个学习任务,ECOC编码越长,纠错能力越强

    • 编码越长,付出的代价是所需训练的分类器越多,计算、存储开销都会增大
    • 对有限类别数,可能的组合数目是有限的,码长超过一定范围后就失去了意义
  • 对同等长度的编码,理论上来说,任意两个类别之间的编码距离越远,纠错能力越强

    • 码长较小时可根据这个原则计算出理论最优编码,然而码长稍大一些就难以有效地确定最优编码
    • 并不是编码的理论性质越好,分类性能就越好

西瓜书研读——第三章 线性模型: 线性判别分析 LDA相关推荐

  1. 机器学习(西瓜书)——第三章线性模型(知识点思维导图)

    机器学习(西瓜书)--第三章线性模型(知识点思维导图) 这章难点在于线性判别分析和对数几率回归的理解与实践,这里只是给大家梳理了一下思路. 大家在学习的时候可以利用sklearn中的线性模型来进行尝试 ...

  2. 西瓜书笔记--第三章 线性模型

    3.1 基本形式 线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,即:f(xi)=w1x1+...wdxd+bf(x_i)=w_1x_1+...w_dx_d+bf( ...

  3. 西瓜书研读——第五章 神经网络:BP神经网络

    西瓜书研读系列: 西瓜书研读--第三章 线性模型:一元线性回归 西瓜书研读--第三章 线性模型:多元线性回归 西瓜书研读--第三章 线性模型:线性几率回归(逻辑回归) 西瓜书研读--第三章 线性模型: ...

  4. 周志华《机器学习》第三章线性模型笔记+习题

    第3章 线性模型 所谓线性模型,也即是:  1. 假定示例有dd个属性,x=(x1,x2,...,xd)x=(x1,x2,...,xd)  2. 试图通过属性的线性组合进行预测 f(x)=∑i=1dw ...

  5. 第三章 线性模型总结

    目录 第三章  线性模型总结 1.线性模型的基本形式 标量形式: 向量形式: 广义线性模型: 2.线性回归 一元线性回归(只有一个特征x): 多元线性回归: 3.对数几率回归--也称作逻辑回归,用来解 ...

  6. 浅读西瓜书(第四章)

    浅读西瓜书(第四章) 4.1基本流程 ​ 决策树,顾名思义,肯定与做决策有关.实际上决策树既可以做决策也可以做回归.在我们生活中其实也经常用到决策树的模型.比如猜数字的游戏.给出一个数字,猜想者猜测一 ...

  7. 线性判别分析LDA—西瓜书课后题3.5—MATLAB代码

    题目:编程实现线性判别分析LDA,给出西瓜数据集 3.0a上的结果 简单说就是找一个分离度最大的投影方向,把数据投射上去. clc clear all [num,txt]=xlsread('D:\机器 ...

  8. 数据分享|R语言逻辑回归、线性判别分析LDA、GAM、MARS、KNN、QDA、决策树、随机森林、SVM分类葡萄酒交叉验证ROC...

    全文链接:http://tecdat.cn/?p=27384 在本文中,数据包含有关葡萄牙"Vinho Verde"葡萄酒的信息(点击文末"阅读原文"获取完整代 ...

  9. lda 吗 样本中心化 需要_机器学习 —— 基础整理(四):特征提取之线性方法——主成分分析PCA、独立成分分析ICA、线性判别分析LDA...

    本文简单整理了以下内容: (一)维数灾难 (二)特征提取--线性方法 1. 主成分分析PCA 2. 独立成分分析ICA 3. 线性判别分析LDA (一)维数灾难(Curse of dimensiona ...

  10. ML之NB:基于news新闻文本数据集利用纯统计法、kNN、朴素贝叶斯(高斯/多元伯努利/多项式)、线性判别分析LDA、感知器等算法实现文本分类预测

    ML之NB:基于news新闻文本数据集利用纯统计法.kNN.朴素贝叶斯(高斯/多元伯努利/多项式).线性判别分析LDA.感知器等算法实现文本分类预测 目录 基于news新闻文本数据集利用纯统计法.kN ...

最新文章

  1. python3 字符串 转 整型
  2. VS2008 JS调试和Silverlight 后台代码调试 相互影响的问题。---自己做实例证明
  3. 253B. Physics Practical
  4. 解决:无法获取实体类com.xxx.xx.xx.xx.dto.XxxDTO对应的表名
  5. ajax请求可以延时吗,延时校验AJAX请求
  6. 初步接触TinyXML2
  7. php执行查询的代码,PHP实现动态执行代码的方法
  8. seaborn sns.regplot()
  9. 单播、组播(目标广播、多播)、广播、泛洪、洪泛介绍与比较
  10. 为张孝祥老师的离世表示哀悼
  11. github能访问但是ping不通
  12. python2.7 get-pip.py总是网络超时
  13. 首次启动mysql_MYSQL在centos上首次启动
  14. 1383: 手机短号 (多实例)
  15. PD3.1 140W双C快充解决方案
  16. 如何修改vue的网页图标
  17. 分享 | NB-IoT智能井盖传感器
  18. TS: 无法找到模块“xxxx”的声明文件。
  19. html5核心ml5图片居中,HTML5图片居中的问题
  20. 【Flink源码分析】Flink 命令启动全流程

热门文章

  1. Thunderbird – 开源免费跨平台邮箱客户端
  2. 电路交换、报文交换、分组交换、异步传输模式等通信交换技术的区别
  3. java定义一个周长类三角形_point类 三点的三角形的周长、面积 编程求解矩形和圆面积 java 三角形的定义...
  4. 【MOOC】计算机网络与通信技术笔记(北交)(2)物理层
  5. chatter命令详解(用来记录知识)
  6. 粗糙集理论介绍(一)(rough set)
  7. 使用Unity制作一个RPG游戏(1)
  8. eclipse php集成包,php-eclipse集成配置(Ecli
  9. 服务器能ping通,但是无法ssh
  10. 英文名称:DSPE-PEG10-Mal的试剂分子式是C68H127N2O21P