西瓜书研读——第三章 线性模型: 线性判别分析 LDA
西瓜书研读系列:
西瓜书研读——第三章 线性模型:一元线性回归
西瓜书研读——第三章 线性模型:多元线性回归
西瓜书研读——第三章 线性模型:线性几率回归(逻辑回归)
- 主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~
- 人群定位:学过高数会求偏导、线代会矩阵运算、概率论知道啥是概率
- 原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅
- 800G人工智能学习资料关注公众号:猛男技术控
3.4 线性判别分析 LDA
3.4.1 核心思想
给定训练样例集,设法将高维的样例投影到一条直线(最佳鉴别矢量空间)上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离,即模式在该空间中有最佳的可分离性。
将训练样本投影到一条直线上,使得同类的样例尽可能近,不同类的样例尽可能远。如图所示:
数据集 D={(x_i,yi)}i=1m,yi∈{0,1}D=\left\{ (\boldsymbol{x}\_i,y_i) \right\}_{i=1}^m,y_i \in \left\{0,1\right\}D={(x_i,yi)}i=1m,yi∈{0,1}
XiX_iXi 表示第 i∈{0,1}i \in \left\{0,1\right\}i∈{0,1} 类示例的集合
μi\boldsymbol{\mu}_iμi 表示第 i∈{0,1}i \in \left\{0,1\right\}i∈{0,1} 类示例的均值向量(样本的中心)
Σi\boldsymbol{\Sigma}_iΣi 表示第 i∈{0,1}i \in \left\{0,1\right\}i∈{0,1} 类示例的协方差矩阵
知识补充:
1、协方差
方差:方差是用来度量单个随机变量的离散程度,当随机变量的可能值集中在数学期望的附近时,方差较小; 反之, 则方差较大。方差能反映随机变量的一切可能值在数学期望周围的分散程度。
而协方差则一般用来刻画两个随机变量的相似程度,如果结果为正值,则说明两者是正相关的,否则是负相关的。需要注意的是,协方差是计算不同特征之间的统计量,不是不同样本之间的统计量。
- 其中,方差的计算公式为
σx2=1n−1∑i=1n(xi−xˉ)2\sigma_x^2=\frac{1}{n-1}\sum_{i=1}^n\left(x_i-\bar{x}\right)^2 σx2=n−11i=1∑n(xi−xˉ)2
- 其中,方差的计算公式为
协方差的计算公式被定义为
σ(x,y)=1n−1∑i=1n(xi−xˉ)(yi−yˉ)\sigma\left(x,y\right)=\frac{1}{n-1}\sum_{i=1}^{n}\left(x_i-\bar{x}\right)\left(y_i-\bar{y}\right) σ(x,y)=n−11i=1∑n(xi−xˉ)(yi−yˉ)
我们发现:方差 σx2\sigma_x^2σx2可视作随机变量xxx关于其自身的协方差σ(x,x)\sigma\left(x,x\right)σ(x,x)
根据方差的定义,给定ddd个随机变量 xk,k=1,2,...,d,x_k,k=1,2,...,d ,xk,k=1,2,...,d,则这些随机变量的方差为
σ(xk,xk)=1n−1∑i=1n(xki−xˉk)2,k=1,2,...,d\sigma({x_k},{x_k})=\frac{1}{n-1}\sum_{i=1}^n\left(x_{ki}-\bar{x}_k\right)^2,k=1,2,...,d σ(xk,xk)=n−11i=1∑n(xki−xˉk)2,k=1,2,...,d
xkix_{ki}xki 表示随机变量 xkx_kxk 中的第$ i $个观测样本, $n 表示样本量,每个随机变量所对应的观测样本数量均为表示样本量,每个随机变量所对应的观测样本数量均为表示样本量,每个随机变量所对应的观测样本数量均为 n $。
对于这些随机变量,我们还可以根据协方差的定义,求出两两之间的协方差,即
σ(xm,xk)=1n−1∑i=1n(xmi−xˉm)(xki−xˉk)\sigma\left(x_m,x_k\right)=\frac{1}{n-1}\sum_{i=1}^n\left(x_{mi}-\bar{x}_m\right)\left(x_{ki}-\bar{x}_k\right) σ(xm,xk)=n−11i=1∑n(xmi−xˉm)(xki−xˉk)
因此,协方差矩阵为:
Σ=[σ(x1,x1)⋯σ(x1,xd)⋮⋱⋮σ(xd,x1)⋯σ(xd,xd)]∈Rd×d\Sigma=\left[ \begin{array}{ccc}\sigma({x_1},{x_1}) \cdots \sigma \left(x_1,x_d\right) \\ \vdots \ddots \vdots \\ \sigma\left(x_d,x_1\right) \cdots \sigma({x_d},{x_d}) \\ \end{array} \right]\in\mathbb{R}^{d\times d} Σ=⎣⎡σ(x1,x1)⋯σ(x1,xd)⋮⋱⋮σ(xd,x1)⋯σ(xd,xd)⎦⎤∈Rd×d
其中,对角线上的元素为各个随机变量的方差,非对角线上的元素为两两随机变量之间的协方差,根据协方差的定义,我们可以认定:矩阵ΣΣΣ 为对称矩阵(symmetric matrix),其大小为$ d×d$ 。
2、内积
内积(点乘/数量积)是对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,是一个标量。
如下所示,对于向量a和向量b:
a=[a1;⋯;an]∈Rn×1b=[b1;⋯;bn]∈Rn×1⟨a⃗,b⃗⟩=a⃗⋅b⃗=a′b=∑i=1naibi\mathbf{a}=\left[a_1;\cdots;a_n\right]\in\mathbb{R}^{n\times1}\\ \mathbf{b}=\left[b_1;\cdots;b_n\right]\in\mathbb{R}^{n\times1}\\ \langle\vec{a},\vec{b}\rangle=\vec{a}\cdot\vec{b}=\mathbf{a}^\prime\mathbf{b}=\sum_{i=1}^na_ib_i a=[a1;⋯;an]∈Rn×1b=[b1;⋯;bn]∈Rn×1⟨a,b⟩=a⋅b=a′b=i=1∑naibi
由此想到矩阵乘法,相乘得到的矩阵就是对应向量
c1=[a1a2a3][b1b2b3]=∑i=13aibic_1=\begin{bmatrix}a_1&a_2&a_3\end{bmatrix}\begin{bmatrix}b_1\\b_2\\b_3\end{bmatrix}=\sum_{i=1}^{3}{a_ib_i} c1=[a1a2a3]⎣⎡b1b2b3⎦⎤=i=1∑3aibi
几何意义
当两个向量都是单位向量时,表示两个向量之间的夹角的余弦
当一个是单位向量时,表示另外一个向量在这个单位向量方向上的投影长度。
一般地,a⃗⋅b⃗=∥a⃗∥∥b⃗∥cosθ\vec{a}\cdot\vec{b}=\parallel\vec{a}\parallel\parallel\vec{b}\parallel\cos\thetaa⋅b=∥a∥∥b∥cosθ
概括而言,可以这样来理解向量内积:向量a、b的内积等于向量a在b方向的分量(或投影)与b的乘积,当a、b垂直时,a在b方向上无分量,所以内积为0。
3、范数
是具有“长度”概念的函数。是矢量空间内的所有矢量赋予非零的正长度或大小。
1范数:所有元素绝对值的和。
∣∣x∣∣1=∑i=1N∣xi∣||x||_1 = \sum_{i=1}^N|x_i| ∣∣x∣∣1=i=1∑N∣xi∣
2范数:所有元素平方和的开方。
∣∣x∣∣2=∑i=1Nxi2||\textbf{x}||_2 =\sqrt{\sum_{i=1}^Nx_i^2} ∣∣x∣∣2=i=1∑Nxi2
无穷范数:正无穷范数:所有元素中绝对值最小的。负无穷范数:所有元素中绝对值最大的。
∣∣x∣∣∞=maxi∣xi∣||\textbf{x}||_\infty = \max_{i}|x_i| ∣∣x∣∣∞=imax∣xi∣
则两类样本的中心在直线上的投影分别为wTu0、wTu1w^Tu_0、w^Tu_1wTu0、wTu1
- 经投影后异类样本尽可能远,则:
max∥wTμ0−wTμ1∥22=∥∣wT∥μ0∥cosθ0−∣wT∥μ1∥cosθ1∥22max \, \|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2 \\ = \||\boldsymbol w^{\mathrm{T}}\|\boldsymbol{\mu}_{0}\|cos\theta_0-|\boldsymbol w^{\mathrm{T}}\|\boldsymbol{\mu}_{1}\|cos\theta_1\|_2^2 \\ max∥wTμ0−wTμ1∥22=∥∣wT∥μ0∥cosθ0−∣wT∥μ1∥cosθ1∥22
注:这里并不是严格的投影长度,而是放大后的,因为乘了个∣wT∣|\boldsymbol w^{\mathrm{T}}|∣wT∣,但这并不影响求最大值,乘上w的模后更方便矩阵计算。
将所有样本都投影到直线上,则两类样本的方差分别为:wT∑0w、wT∑1ww^T\sum_0w、w^T\sum_1wwT∑0w、wT∑1w,同类样本方差尽可能小,则:
minwT∑0w=wT(∑(x−u0)(x−u0)T)w=∑(wTx−wTu0)(wTx−wTu0)Tmin \,w^T\sum_{0} w =w^T(\sum(x-u_0)(x-u_0)^T)w\\=\sum(w^Tx-w^Tu_0)(w^Tx-w^Tu_0)^T minwT0∑w=wT(∑(x−u0)(x−u0)T)w=∑(wTx−wTu0)(wTx−wTu0)T
注:方差只针对单个随机变量,是刻画同一样本直接的离散程度。而协方差可分为自协方差(是一个随机向量元素之间的协方差,也叫协方差矩阵,有时也叫方差矩阵)和互协方差(是两个随机向量元素之间的协方差)。书上的协方差则指的是某个样本的自协方差。
3.4.2 目标函数
要同时考虑一类样本尽可能远,同类样本尽肯能近,同时考虑二者,所以可以用以下目标函数:
maxJ=∥wTμ0−wTμ1∥22wT∑0w+wT∑1ww(3.32)max \, J = \cfrac{\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2}{w^T\sum_0w+w^T\sum_1ww} \tag{3.32} maxJ=wT∑0w+wT∑1ww∥wTμ0−wTμ1∥22(3.32)
[推导]:
J=∥wTμ0−wTμ1∥22wT(Σ0+Σ1)w=∥(wTμ0−wTμ1)T∥22wT(Σ0+Σ1)w=∥(μ0−μ1)Tw∥22wT(Σ0+Σ1)w=[(μ0−μ1)Tw]T(μ0−μ1)TwwT(Σ0+Σ1)w=wT(μ0−μ1)(μ0−μ1)TwwT(Σ0+Σ1)w(3.32)\begin{aligned} J &= \cfrac{\|\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\|(\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{0}-\boldsymbol w^{\mathrm{T}}\boldsymbol{\mu}_{1})^{\mathrm{T}}\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\|(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\|_2^2}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\left[(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w\right]^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \\ &= \cfrac{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol w}{\boldsymbol w^{\mathrm{T}}(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1})\boldsymbol w} \end{aligned} \tag{3.32} J=wT(Σ0+Σ1)w∥wTμ0−wTμ1∥22=wT(Σ0+Σ1)w∥(wTμ0−wTμ1)T∥22=wT(Σ0+Σ1)w∥(μ0−μ1)Tw∥22=wT(Σ0+Σ1)w[(μ0−μ1)Tw]T(μ0−μ1)Tw=wT(Σ0+Σ1)wwT(μ0−μ1)(μ0−μ1)Tw(3.32)
定义:
- 类内散度矩阵
Sw=Σ0+Σ1=∑x∈X0(x−μ0)(x−μ0)T+∑x∈X1(x−μ1)(x−μ1)T\begin{align} \boldsymbol{S}_w & = \boldsymbol{\Sigma}_0 + \boldsymbol{\Sigma}_1 \\ & = \sum_{\boldsymbol{x} \in X_0}(\boldsymbol{x}-\boldsymbol{\mu}_0)(\boldsymbol{x}-\boldsymbol{\mu}_0)^{\text{T}} + \sum_{\boldsymbol{x} \in X_1}(\boldsymbol{x}-\boldsymbol{\mu}_1)(\boldsymbol{x}-\boldsymbol{\mu}_1)^{\text{T}} \end{align} Sw=Σ0+Σ1=x∈X0∑(x−μ0)(x−μ0)T+x∈X1∑(x−μ1)(x−μ1)T
- 类间散度矩阵
Sb=(μ0−μ1)(μ0−μ1)T\boldsymbol{S}_b = (\boldsymbol{\mu_{0}}-\boldsymbol{\mu_{1}})(\boldsymbol{\mu_{0}}-\boldsymbol{\mu_{1}})^{\text{T}} Sb=(μ0−μ1)(μ0−μ1)T
公式3.32可以写为:
J=wTSbwwTSww(3.35)\begin{align} J & = \frac{\boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w}}{\boldsymbol{w}^{\text{T}}\boldsymbol{S}_w\boldsymbol{w}} \end{align} \tag{3.35} J=wTSwwwTSbw(3.35)
这就是LSA欲最大化的目标函数,即Sw,SbS_w,S_bSw,Sb的广义瑞利商(generalized Rayleigh quotient)
3.4.3 函数求解
分子分母都是关于 w\boldsymbol{w}w 的二次项,该优化问题硬解是解不出w的,因为是比例,上下都有w,最终可以约分,如W=awW=awW=aw,这样就是多个解。但w的大小是不影响最终结果的。
因此可假设,wTSww=1\boldsymbol{w}^{\text{T}}\boldsymbol{S}_w\boldsymbol{w} = 1wTSww=1,(当然也可以假设wTSbw=100\boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w} = 100wTSbw=100或∣∣w∣∣=1||w||=1∣∣w∣∣=1),这样就固定了w,则原广义瑞利商变为最大化 wTSbw\boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w}wTSbw
这样该优化问题就可以解了
minw−wTSbws.t.wTSww=1(3.36)\begin{align} \underset{\boldsymbol{w}}{\min} - \boldsymbol{w}^{\text{T}}\boldsymbol{S}_b\boldsymbol{w} \\ \text{s.t.} \quad \boldsymbol{w}^{\text{T}}\boldsymbol{S}_w\boldsymbol{w} = 1 \end{align} \tag{3.36} wmin−wTSbws.t.wTSww=1(3.36)
一般优化问题都是求其最小最优解,在目标函数前加个符号就将最大化问题转换为了最小化问题。
知识补充:
拉格朗日乘子法
只能保证是极值点,不能保证是极大值还是极小值,要具体分析
由公式(3.36)可得拉格朗日函数为
L(w,λ)=−wTSbw+λ(wTSww−1)L(\boldsymbol w,\lambda)=-\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w+\lambda(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1) L(w,λ)=−wTSbw+λ(wTSww−1)
对w\boldsymbol ww求偏导可得
∂L(w,λ)∂w=−∂(wTSbw)∂w+λ∂(wTSww−1)∂w=−(Sb+SbT)w+λ(Sw+SwT)w\begin{aligned} \cfrac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} &= -\cfrac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_b\boldsymbol w)}{\partial \boldsymbol w}+\lambda \cfrac{\partial(\boldsymbol w^{\mathrm{T}}\mathbf{S}_w\boldsymbol w-1)}{\partial \boldsymbol w} \\ &= -(\mathbf{S}_b+\mathbf{S}_b^{\mathrm{T}})\boldsymbol w+\lambda(\mathbf{S}_w+\mathbf{S}_w^{\mathrm{T}})\boldsymbol w \end{aligned} ∂w∂L(w,λ)=−∂w∂(wTSbw)+λ∂w∂(wTSww−1)=−(Sb+SbT)w+λ(Sw+SwT)w
由于Sb=SbT,Sw=SwT\mathbf{S}_b=\mathbf{S}_b^{\mathrm{T}},\mathbf{S}_w=\mathbf{S}_w^{\mathrm{T}}Sb=SbT,Sw=SwT,所以
∂L(w,λ)∂w=−2Sbw+2λSww\cfrac{\partial L(\boldsymbol w,\lambda)}{\partial \boldsymbol w} = -2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w ∂w∂L(w,λ)=−2Sbw+2λSww
令上式等于0即可得
−2Sbw+2λSww=0Sbw=λSww-2\mathbf{S}_b\boldsymbol w+2\lambda\mathbf{S}_w\boldsymbol w=0 \\ \mathbf{S}_b\boldsymbol w=\lambda\mathbf{S}_w\boldsymbol w −2Sbw+2λSww=0Sbw=λSww
由于
Sbw=(μ0−μ1)(μ0−μ1)Tw\mathbf{S}_b\boldsymbol w = (\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w} Sbw=(μ0−μ1)(μ0−μ1)Tw
所以
(μ0−μ1)(μ0−μ1)Tw=λSww\\ (\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\lambda\mathbf{S}_w\boldsymbol w (μ0−μ1)(μ0−μ1)Tw=λSww
若令(μ0−μ1)Tw=γ(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\gamma(μ0−μ1)Tw=γ(是个标量),则
γ(μ0−μ1)=λSwww=γλSw−1(μ0−μ1)\gamma(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})=\lambda\mathbf{S}_w\boldsymbol w \\ \boldsymbol{w}=\frac{\gamma}{\lambda}\mathbf{S}_{w}^{-1}(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}) γ(μ0−μ1)=λSwww=λγSw−1(μ0−μ1)
由于最终要求解的w\boldsymbol{w}w不关心其大小,只关心其方向,所以其大小可以任意取值。由于μ0\boldsymbol{\mu}_{0}μ0和μ1\boldsymbol{\mu}_{1}μ1的大小是固定的,所以γ\gammaγ这个标量的大小只受w\boldsymbol{w}w的大小影响,因此可以调整w\boldsymbol{w}w的大小使得γ=λ\gamma=\lambdaγ=λ
由于Sbw=(μ0−μ1)(μ0−μ1)Tw\mathbf{S}_b\boldsymbol w = (\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}Sbw=(μ0−μ1)(μ0−μ1)Tw, (μ0−μ1)Tw(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}(μ0−μ1)Tw是一个标量,所以Sbw\mathbf{S}_b\boldsymbol wSbw的方向与μ0−μ1\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}μ0−μ1的方向一致,西瓜书中所说的“不妨令Sbw=λ(μ0−μ1)\mathbf{S}_b\boldsymbol w=\lambda(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})Sbw=λ(μ0−μ1)”也等价于令(μ0−μ1)Tw=γ=λ(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1})^{\mathrm{T}}\boldsymbol{w}=\gamma= \lambda(μ0−μ1)Tw=γ=λ,因此,此时γλ=1\frac{\gamma}{\lambda}=1λγ=1,求解出的w\boldsymbol{w}w即为公式(3.39)
w=Sw−1(μ0−μ1)(3.39)\boldsymbol{w} = \boldsymbol{S}_w^{-1}(\boldsymbol{\mu}_0 - \boldsymbol{\mu}_1) \tag{3.39} w=Sw−1(μ0−μ1)(3.39)
考虑到数值解的稳定性,在实践中通常是对SwS_wSw进行奇异值分解。
即 Sw=UΣUTS_w=UΣU^TSw=UΣUT,Sw−1=VΣ−1UTS_{w}^{-1}=VΣ^{-1}U^TSw−1=VΣ−1UT
值得注意的是,LSA还可以从贝叶斯决策理论的角度来阐释,具体在学到贝叶斯模型的时候说。
知识补充
广义特征值
广义瑞利商
厄米矩阵可以理解为复数 域上的转置矩阵
3.5 多分类学习
拆解法
基本思路
- 即将多分类任务拆分为若干个二分类任务求解
- 具体来说,先对问题进行拆分,然后为拆出的每个二分类任务训练一个分类器;在测试时,对这些分类器的预测结果进行集成以获得最终的多分类结果
拆分策略
- “一对一”(One vs. One,简称 OvO)
- “一对其余”(One vs. Rest,简称 OvR)
- “多对多”(Many vs. Many,简称 MvM)
OvO
- 将这N个类别两两配对,从而产生N(N-1)/2个二分类任务
- 在测试阶段,新样本将同时提交给所有分类器,欲使我们将得到N(N-1)/2个分类结果,最终结果通过投票产生
OvR
- 每次将一个类的样例作为正例、所有其他类的样例作为反例来训练N个分类器
- 在测试阶段,若仅有一个分类器预测为正类,则对应的类别标记作为最终结果分类
对比
- 在测试时,OvO的存储开销和测试时间开销通常比OvR更大
- 在训练时,OvR的每个分类器均使用全部的训练样例,而OvO得每个分类器仅用到两个类的样例,训练开销比较小
MvM
每次将若干个类作为正类,若干个其他类作为反类
纠错输出码(Error Correcting Output Codes,简称 ECOC)
工作过程
编码
- 对N个类别做M次划分,每次划分将一部分类别划为正类,一部分划为反类,从而形成一个二分类训练集
- 这样一共产生M个训练集,可训练出M个分类器
解码
- M个分类器分别对测试样本进行预测,这些预测标记形成一个编码
- 将这个预测编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测结果
编码矩阵 (coding matrix)
常见形式
二元码: (正类\反类)
三元码:(正类\反类\停用类)
为什么称“纠错输出码”?
在测试阶段,ECOC编码对分类器的错误有一定的容忍和修正能力
一般来说,对同一个学习任务,ECOC编码越长,纠错能力越强
- 编码越长,付出的代价是所需训练的分类器越多,计算、存储开销都会增大
- 对有限类别数,可能的组合数目是有限的,码长超过一定范围后就失去了意义
对同等长度的编码,理论上来说,任意两个类别之间的编码距离越远,纠错能力越强
- 码长较小时可根据这个原则计算出理论最优编码,然而码长稍大一些就难以有效地确定最优编码
- 并不是编码的理论性质越好,分类性能就越好
西瓜书研读——第三章 线性模型: 线性判别分析 LDA相关推荐
- 机器学习(西瓜书)——第三章线性模型(知识点思维导图)
机器学习(西瓜书)--第三章线性模型(知识点思维导图) 这章难点在于线性判别分析和对数几率回归的理解与实践,这里只是给大家梳理了一下思路. 大家在学习的时候可以利用sklearn中的线性模型来进行尝试 ...
- 西瓜书笔记--第三章 线性模型
3.1 基本形式 线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,即:f(xi)=w1x1+...wdxd+bf(x_i)=w_1x_1+...w_dx_d+bf( ...
- 西瓜书研读——第五章 神经网络:BP神经网络
西瓜书研读系列: 西瓜书研读--第三章 线性模型:一元线性回归 西瓜书研读--第三章 线性模型:多元线性回归 西瓜书研读--第三章 线性模型:线性几率回归(逻辑回归) 西瓜书研读--第三章 线性模型: ...
- 周志华《机器学习》第三章线性模型笔记+习题
第3章 线性模型 所谓线性模型,也即是: 1. 假定示例有dd个属性,x=(x1,x2,...,xd)x=(x1,x2,...,xd) 2. 试图通过属性的线性组合进行预测 f(x)=∑i=1dw ...
- 第三章 线性模型总结
目录 第三章 线性模型总结 1.线性模型的基本形式 标量形式: 向量形式: 广义线性模型: 2.线性回归 一元线性回归(只有一个特征x): 多元线性回归: 3.对数几率回归--也称作逻辑回归,用来解 ...
- 浅读西瓜书(第四章)
浅读西瓜书(第四章) 4.1基本流程 决策树,顾名思义,肯定与做决策有关.实际上决策树既可以做决策也可以做回归.在我们生活中其实也经常用到决策树的模型.比如猜数字的游戏.给出一个数字,猜想者猜测一 ...
- 线性判别分析LDA—西瓜书课后题3.5—MATLAB代码
题目:编程实现线性判别分析LDA,给出西瓜数据集 3.0a上的结果 简单说就是找一个分离度最大的投影方向,把数据投射上去. clc clear all [num,txt]=xlsread('D:\机器 ...
- 数据分享|R语言逻辑回归、线性判别分析LDA、GAM、MARS、KNN、QDA、决策树、随机森林、SVM分类葡萄酒交叉验证ROC...
全文链接:http://tecdat.cn/?p=27384 在本文中,数据包含有关葡萄牙"Vinho Verde"葡萄酒的信息(点击文末"阅读原文"获取完整代 ...
- lda 吗 样本中心化 需要_机器学习 —— 基础整理(四):特征提取之线性方法——主成分分析PCA、独立成分分析ICA、线性判别分析LDA...
本文简单整理了以下内容: (一)维数灾难 (二)特征提取--线性方法 1. 主成分分析PCA 2. 独立成分分析ICA 3. 线性判别分析LDA (一)维数灾难(Curse of dimensiona ...
- ML之NB:基于news新闻文本数据集利用纯统计法、kNN、朴素贝叶斯(高斯/多元伯努利/多项式)、线性判别分析LDA、感知器等算法实现文本分类预测
ML之NB:基于news新闻文本数据集利用纯统计法.kNN.朴素贝叶斯(高斯/多元伯努利/多项式).线性判别分析LDA.感知器等算法实现文本分类预测 目录 基于news新闻文本数据集利用纯统计法.kN ...
最新文章
- python3 字符串 转 整型
- VS2008 JS调试和Silverlight 后台代码调试 相互影响的问题。---自己做实例证明
- 253B. Physics Practical
- 解决:无法获取实体类com.xxx.xx.xx.xx.dto.XxxDTO对应的表名
- ajax请求可以延时吗,延时校验AJAX请求
- 初步接触TinyXML2
- php执行查询的代码,PHP实现动态执行代码的方法
- seaborn sns.regplot()
- 单播、组播(目标广播、多播)、广播、泛洪、洪泛介绍与比较
- 为张孝祥老师的离世表示哀悼
- github能访问但是ping不通
- python2.7 get-pip.py总是网络超时
- 首次启动mysql_MYSQL在centos上首次启动
- 1383: 手机短号 (多实例)
- PD3.1 140W双C快充解决方案
- 如何修改vue的网页图标
- 分享 | NB-IoT智能井盖传感器
- TS: 无法找到模块“xxxx”的声明文件。
- html5核心ml5图片居中,HTML5图片居中的问题
- 【Flink源码分析】Flink 命令启动全流程
热门文章
- Thunderbird – 开源免费跨平台邮箱客户端
- 电路交换、报文交换、分组交换、异步传输模式等通信交换技术的区别
- java定义一个周长类三角形_point类 三点的三角形的周长、面积 编程求解矩形和圆面积 java 三角形的定义...
- 【MOOC】计算机网络与通信技术笔记(北交)(2)物理层
- chatter命令详解(用来记录知识)
- 粗糙集理论介绍(一)(rough set)
- 使用Unity制作一个RPG游戏(1)
- eclipse php集成包,php-eclipse集成配置(Ecli
- 服务器能ping通,但是无法ssh
- 英文名称:DSPE-PEG10-Mal的试剂分子式是C68H127N2O21P