在故障诊断中,我们常常会面对大量的且维数很高的数组,通过我们需要先对数据集进行划分及预处理,而预处理阶段极为重要的一步就是对数据进行降维特征提取,通过某种数学变换将原始高维空间转变成一个低维的子空间。

然鹅,我们常用到的基本就只有两个,一个是主成分分析(PCA),另一个则是今天所要介绍的Fisher判别分析(Fisher Discriminant Analysis,FDA)。

  1. 主成分分析的基本思想:设法将原来众多具有一定相关性(比如P个指标,即主成分),重新组合成一组新的互相无关的综合指标来代替原来的指标。通过寻找在最小均方误差(Mean Square Error,MSE)下的最具代表性的投影向量,再用这些向量来表示数据。
  2. Fisher判别分析的基本思想:利用已知类别的样本建立判别模型,对未知类别的样本进行分类。在最小均方误差(也就是最小二乘法MSE)意义下,寻找最能分开各个类别的最佳方向。

最先的是提出的线性判别法(Linear Discriminant Analysis,LDA),这还是一种经典的线性学习方法。在降维方面LDA是最著名的监督学习降维方法。但是,在二分类问题上,因为最早是有(Fisher,1936)提出的,因此也被称为是“Fisher判别分析(Fisher Discriminant Analysis,FDA)”。

其实LDA和FDA两种判别分析方法,是略有不同的。其中LDA则假设了各类样本数据的协方差矩阵相同,且满秩。

线性判别分析(LDA)及Fisher判别分析(FDA)

LDA的思想:由所给定的数据集,设法将样例数据投影在一条直线上,使得同类数据的投影点尽可能的接近、而异类数据的投影点之间将可能间隔更远。在我们做新样本数据的分类时,将其投影到同样的直线上,再根据投影点的位置来确定新样本的类别。如下图(源自周志华《机器学习》)所示:

这里的投影直线也用到了最小二乘的思想,所有数据样本垂直投影在直线上,只是我们的约束条件表为了不同数据样本之间的投影在直线上的距离度量。
我们需要寻找到在投影方向www上,使得数据样本满足两个条件:1) 相同数据之间投影距离最小;2)不同数据之间投影点位置最大(可通过求其不同数据的投影中心点来判别)

LDA二维示意图

图中,“+”和“-”代表的是两种不同的数据簇,而椭圆表示数据簇的外轮廓线,虚线表示其投影,红色实心圆●和红色实心三角形△分别代表的两类数据簇投影到www方向上的中心点。

对于上面投影方向y=wTxy=\mathbf{w^Tx}y=wTx,有博主认为描述的不够准确,书中并未提及关于yyy的解释,但是对于yyy其实是有所提及的。

但我认为,这里的yyy,仅仅是为了体现投影的一个方向,将数据xxx投影在方向为www的直线上,而不是代表的这根投影直线为 y=wTxy=\mathbf{w^Tx}y=wTx,或许会被人误认为是投影后的值0。
—菜鸡理解(如有不对,请批评指正)

已知给定的数据集为
D={(xi,yi)}i=1m,yi∈{0,1}D=\{(x_i,y_i)\}_{i=1}^{m},y_i\in \{0,1\}D={(xi​,yi​)}i=1m​,yi​∈{0,1}
假设Xi、μi、ΣiX_i、\mu_i、\Sigma_iXi​、μi​、Σi​分别表示第i∈{0,1}i\in\{0,1\}i∈{0,1}类(注意:这里的 iii 指代有多少个不同的类别数据集,图中只有两类,故为0和1)示例的集合、均值向量、协方差矩阵。

假如将所有的样本数据点都投影到直线www上来,那么两类不同的样本数据的中心点在直线上的投影可表示为wTμ0、wTμ1w^{T}\mu_0、w^{T}\mu_1wTμ0​、wTμ1​;同样,所有样本投影到直线上后,我们得到的两类样本的协方差分别为wTΣ0ww^{T}\Sigma_0wwTΣ0​w和wTΣ1ww^{T}\Sigma_1wwTΣ1​w.

由于我们只是在一维平面上的直线,故为一维空间,由此wTμ0、wTμ1、wTΣ0w、wTΣ1ww^{T}\mu_0、w^{T}\mu_1、w^{T}\Sigma_0w、w^{T}\Sigma_1wwTμ0​、wTμ1​、wTΣ0​w、wTΣ1​w都是实数。

为什么说这里是一维空间呢?可以看上图,假设每个样本都是d维向量(上图为二维x1、x2x_1、x_2x1​、x2​坐标系)。现在就简单一点,想用一条直线www表示这些样本,称之为样本集合的一维表达。所以这里说的一维讲的是投影到一条直线上以后的数据,在直线上是属于一维空间表达的。

下面思考另一个问题,如何让同类的数据样本投影点尽可能的靠近,而使得不同样本投影点离得更远呢?

这里需要引入协方差的概念,小小复习一下协方差样本方差的知识(因为本菜鸡数学基础差)

协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。
上面的Σ0、Σ1\Sigma_0、\Sigma_1Σ0​、Σ1​因为是自协方差也就是代表方差(也即为样本方差)。

方差:当数据分布比较分散(即数据在平均数附近波动较大)时,各个数据与平均数的差的平方和较大,方差就较大;当数据分布比较集中时,各个数据与平均数的差的平方和较小。
总的说来:方差越大,数据的波动越大;方差越小,数据的波动就越小


协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。
简而言之:两个变量之间差距越大,协方差就越小;相反,两个变量越相似变化趋势一致,则协方差越大

复习完协方差、样本方差的知识后,解决上面的问题应该不难。

按照我们的需求,让同类的样本投影点尽可能的靠近,换句话说就是让同类样本投影的协方差尽可能的小(注意:这里由于是自协方差==样本方差,也就满足上面大字第一条),即wTΣ0w+wTΣ1ww^{T}\Sigma_0 w+w^{T}\Sigma_1 wwTΣ0​w+wTΣ1​w尽可能的小,这样数据的波动就小,之间的距离就更小更靠近。

关于不同数据样本投影点之间的操作,使其更加的远离。我们可以通过不同数据集投影的中心点来判别,不同中心点之间的距离越大,那么表示他们之间离得更远,则∣∣wTμ0+wTμ1∣∣22||w^{T}\mu_0+w^{T}\mu_1||_2^2∣∣wTμ0​+wTμ1​∣∣22​(欧式距离)更大。

好!现在我们同时考虑两者的情况,则可以使得得到最大化的目标,建立我们的模型:
J=∥wTμ0−wTμ1∥22wTΣ0w+wTΣ1w=wT(μ0−μ1)(μ0−μ1)TwwT(Σ0+Σ1)w\begin{aligned} J &=\frac{\left\|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_{0}-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_{1}\right\|_{2}^{2}}{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_{0} \boldsymbol{w}+\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_{1} \boldsymbol{w}} \\ &=\frac{\boldsymbol{w}^{\mathrm{T}}\left(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}\right)\left(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}\right)^{\mathrm{T}} \boldsymbol{w}}{\boldsymbol{w}^{\mathrm{T}}\left(\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1}\right) \boldsymbol{w}} \end{aligned}J​=wTΣ0​w+wTΣ1​w∥∥​wTμ0​−wTμ1​∥∥​22​​=wT(Σ0​+Σ1​)wwT(μ0​−μ1​)(μ0​−μ1​)Tw​​
观察上式目标函数,当我们的J→MaxJ\rightarrow MaxJ→Max则是我们想要的结果。式子太复杂,那我们再优化一下吧。

引入一下类内和间散度矩阵的知识:

  1. 类间散度矩阵用于表示各样本点围绕均值的散布情况。
  2. 类内散度矩阵用于表示样本点围绕均值的散步情况,关于特征选择和提取的结果,类内散布矩阵的积越小越好。
    具体可参考这里,还有这里。

首先,我们来定义“类内散度矩阵”(within-class scatter matrix)
Sw=Σ0+Σ1=∑x∈X0(x−μ0)(x−μ0)T+∑x∈X1(x−μ1)(x−μ1)T\begin{aligned} \mathbf{S}_{w} &=\boldsymbol{\Sigma}_{0}+\boldsymbol{\Sigma}_{1} \\ &=\sum_{\boldsymbol{x} \in X_{0}}\left(\boldsymbol{x}-\boldsymbol{\mu}_{0}\right)\left(\boldsymbol{x}-\boldsymbol{\mu}_{0}\right)^{\mathrm{T}}+\sum_{\boldsymbol{x} \in X_{1}}\left(\boldsymbol{x}-\boldsymbol{\mu}_{1}\right)\left(\boldsymbol{x}-\boldsymbol{\mu}_{1}\right)^{\mathrm{T}} \end{aligned}Sw​​=Σ0​+Σ1​=x∈X0​∑​(x−μ0​)(x−μ0​)T+x∈X1​∑​(x−μ1​)(x−μ1​)T​
“类间散度矩阵”(between-class scatter matrix):
Sb=(μ0−μ1)(μ0−μ1)T\mathbf{S}_{b}=\left(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}\right)\left(\boldsymbol{\mu}_{0}-\boldsymbol{\mu}_{1}\right)^{\mathrm{T}}Sb​=(μ0​−μ1​)(μ0​−μ1​)T
然后我们的JJJ可以表示为
J=wTSbwwTSwwJ=\frac{\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b} \boldsymbol{w}}{\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{w} \boldsymbol{w}}J=wTSw​wwTSb​w​
这样看起来简单多了,这就是我们的LDA想要最大化的目标函数,比较专业的说法为,SbS_bSb​和SwS_wSw​的“广义瑞利商”(generalizad Rayleigh quotient)。

关于“广义瑞利商”(generalizad Rayleigh quotient)的解释,可以参考这里和这里。
瑞利商经常出现在降维和聚类任务中,因为降维聚类任务往往能导出最大化最小化瑞利熵的式子,进而通过特征值分解的方式找到降维空间
大体内容如下:

下面开始构建我们的函数及约束条件。

首先得确定我们的www,由于JJJ的分母分子都是关于www的二项式子,则与www的长度无关,且只与方向有关。故我们令wTSww=1\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{w} \boldsymbol{w}=1wTSw​w=1,则:
min⁡w−wTSbws.t. wTSww=1\begin{array}{ll} \min _{\boldsymbol{w}} & -\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{b} \boldsymbol{w} \\ \text { s.t. } & \boldsymbol{w}^{\mathrm{T}} \mathbf{S}_{w} \boldsymbol{w}=1 \end{array}minw​ s.t. ​−wTSb​wwTSw​w=1​
由拉格朗日乘数法(具体可参考CCA中Lagrange的应用)可得,
Sbw=λSww(*)\boldsymbol{S_bw=\lambda S_w w}\tag{*}Sb​w=λSw​w(*)

其中,λ\lambdaλ为拉格朗日乘子。

由上“类间散度矩阵”可知,Sbw\boldsymbol{S_bw}Sb​w为μ0−μ1\mu_0-\mu_1μ0​−μ1​的平方,故Sbw\boldsymbol{S_bw}Sb​w的方向则恒为μ0−μ1\mu_0-\mu_1μ0​−μ1​,向量的方向可以确定了,我们再令
Sbw=λ(μ0−μ1)\boldsymbol{S_bw=\lambda (\mu_0-\mu_1)}Sb​w=λ(μ0​−μ1​)

向量方向确定,λ\lambdaλ只是代表方向向量的长度,所以Sbw\boldsymbol{S_bw}Sb​w可由上式表达。可能会有人疑惑了,这里的λ\lambdaλ和(*)式的λ\lambdaλ是一个λ\lambdaλ吗?
答案是肯定的。

将上式代入(*)式,可得关于Sw\boldsymbol{S_w}Sw​的式子:
w=Sw−1(μ0−μ1)\boldsymbol{w=S_w^{-1}(\mu_0-\mu_1)}w=Sw−1​(μ0​−μ1​)
这里需要对Sw\boldsymbol{S_w}Sw​求逆,考虑到数值解的稳定性,常规实践操作中,需要对Sw\boldsymbol{S_w}Sw​进行奇异值分解(也就是我们在矩阵理论中学到的SVD方法),原理很简单,此处,即为Sw=UΣVT\boldsymbol{S_w=U\Sigma V^{T}}Sw​=UΣVT,其中Σ\SigmaΣ是一个实对角矩阵,对角线上的元素也就是所谓的“”是Sw\boldsymbol{S_w}Sw​的奇异值。我们需要求解的是Sw\boldsymbol{S_w}Sw​的逆,故式子变为了这样,
Sw−1=VΣ−1UT\boldsymbol{S_w^{-1}=V\Sigma^{-1} U^{T}}Sw−1​=VΣ−1UT
至此,我们得到了Sw−1\boldsymbol{S_w^{-1}}Sw−1​,从而可求得直线向量 www,找到使得 JJJ 最大的 www.

LDA还可从贝叶斯决策理论的角度来描述(关于贝叶斯可参考这里),可证明,当两类数据同先验、满足高斯分布(正态分布)且协方差相等时,LDA可以达到最优的分类效果。

上述讲了这么多都是二分类问题,那么关于多分类任务。

LDA推广(多分类任务)

将LDA推广到多维多分类任务,起初我们只有两类,现在我们假设有NNN类,其中第iii类则表示为mi,i∈(1,N)m_i,i\in(1,N)mi​,i∈(1,N)。

我们定义“全局散度矩阵”:
St=Sb+Sw=∑i=1m(xi−μ)(xi−μ)T\begin{aligned} \mathbf{S}_{t} &=\mathbf{S}_{b}+\mathbf{S}_{w} \\ &=\sum_{i=1}^{m}\left(\boldsymbol{x}_{i}-\boldsymbol{\mu}\right)\left(\boldsymbol{x}_{i}-\boldsymbol{\mu}\right)^{\mathrm{T}} \end{aligned}St​​=Sb​+Sw​=i=1∑m​(xi​−μ)(xi​−μ)T​

其中,μ\muμ代表所有示例的均值向量。

将二分类的类内散度矩阵Sw\boldsymbol{S_w}Sw​重新定义为每个类别的散度矩阵之和,因为现在是对多分类任务操作,也就是将每一类的Swi\boldsymbol{S_{wi}}Swi​加起来变为一个Sw\boldsymbol{S_w}Sw​,
Sw=∑i=1NSwi\mathbf{S}_{w}=\sum_{i=1}^{N} \mathbf{S}_{w_{i}} Sw​=i=1∑N​Swi​​
其中,
Swi=∑x∈Xi(x−μi)(x−μi)T\mathbf{S}_{w_{i}}=\sum_{\boldsymbol{x} \in X_{i}}\left(\boldsymbol{x}-\boldsymbol{\mu}_{i}\right)\left(\boldsymbol{x}-\boldsymbol{\mu}_{i}\right)^{\mathrm{T}}Swi​​=x∈Xi​∑​(x−μi​)(x−μi​)T

同理,这里的μi\mu _iμi​也代表每一类的均值向量。

由上式可得到,
Sb=St−Sw=∑i=1Nmi(μi−μ)(μi−μ)T\begin{aligned} \mathbf{S}_{b} &=\mathbf{S}_{t}-\mathbf{S}_{w} \\ &=\sum_{i=1}^{N} m_{i}\left(\boldsymbol{\mu}_{i}-\boldsymbol{\mu}\right)\left(\boldsymbol{\mu}_{i}-\boldsymbol{\mu}\right)^{\mathrm{T}} \end{aligned}Sb​​=St​−Sw​=i=1∑N​mi​(μi​−μ)(μi​−μ)T​
由此,多分类LDA可有多种实现方法,使用Sb、St、Sw\boldsymbol{S_b、S_t、S_w}Sb​、St​、Sw​其中的任意两个即可实现目标优化。

常规采用Sb、Sw\boldsymbol{S_b、S_w}Sb​、Sw​来实现,将我们的目标进行优化,
max⁡Wtr⁡(WTSbW)tr⁡(WTSwW)\max _{\mathbf{W}} \frac{\operatorname{tr}\left(\mathbf{W}^{\mathrm{T}} \mathbf{S}_{b} \mathbf{W}\right)}{\operatorname{tr}\left(\mathbf{W}^{\mathrm{T}} \mathbf{S}_{w} \mathbf{W}\right)}Wmax​tr(WTSw​W)tr(WTSb​W)​

其中,W∈Rd×(N−1)\mathbf{W} \in \mathbb{R}^{d \times(N-1)}W∈Rd×(N−1),tr(·)则表示的是矩阵的“”。

上式可由如下的广义特征值问题求解:
SbW=λSwW\boldsymbol{S_bW=\lambda S_w W}Sb​W=λSw​W

注意:这里的WWW和上面二分类问题时的www相同,WWW则是多类问题下的投影直线。故我们需要找到这样在多个类下使得满足第一部分的约束条件的直线WWW。

和二分类一样通过奇异值分解来需求解Sbw\boldsymbol{S_bw}Sb​w的值,从而得到使得优化的目标函数实现最大的 WWW,在多维中,我们可将WWW视为一个投影矩阵。

WWW的闭式解为Sw−1SbS_w^{-1}S_bSw−1​Sb​的 d′d'd′个最大非零广义特征值所对应的特征向量组成的矩阵,d′≤N−1d' \le N-1d′≤N−1.

在故障诊断中LDA也多用于对原始数据进行预处理----降维,多分类LDA将数据样本投影到d′d'd′维空间中,而d′d'd′往往远小于ddd维。

故可通过LDA的投影方式来降低数据的维度达到降维效果。

有一个LDA和PCA很好区分的图,附上一下:

从上图中可容易理解PCA和LDA。可看出PCA多满足高斯分布,投影了最具代表性的主成分分量;而LDA如上所述,投影下来使其更容易区分出各类别之间的最佳方向。

References

  1. 《机器学习》-周志华著
  2. https://hyper.ai/wiki/3654
  3. https://hyper.ai/wiki/9942
  4. https://baike.baidu.com/item/%E6%96%B9%E5%B7%AE/3108412
  5. https://baike.baidu.com/item/%E5%8D%8F%E6%96%B9%E5%B7%AE
  6. https://zhuanlan.zhihu.com/p/78077834
  7. https://zhuanlan.zhihu.com/p/301277905
  8. https://www.zhihu.com/topic/20687704/hot
  9. https://www.zhihu.com/question/27670909

❤坚持读Paper,坚持做笔记,坚持学习❤!!!
To Be No.1

⚡⚡


创作不易⚡,过路能❤关注收藏点个赞三连就最好不过了

ღ( ´・ᴗ・` )


To the time to life, rather than to life in time to the time to life, rather than to life in time.

线性判别分析(LDA)与Fisher判别分析(FDA)降维原理相关推荐

  1. 07_数据降维,降维算法,主成分分析PCA,NMF,线性判别分析LDA

    1.降维介绍 保证数据所具有的代表性特性或分布的情况下,将高维数据转化为低维数据. 聚类和分类都是无监督学习的典型任务,任务之间存在关联,比如某些高维数据的分类可以通过降维处理更好的获得. 降维过程可 ...

  2. 数据降维方法(主成分分析PCA、线性判别分析LDA)

    数据降维 1.特征变换 1.1.特征提取 2.维数缩减 2.1.维度灾难 2.2.维度缩减 2.3.线性降维法 2.3.1.主成分分析(PCA) 2.3.1.1.数学分析 2.3.1.2.算法步骤 2 ...

  3. lda 吗 样本中心化 需要_机器学习 —— 基础整理(四):特征提取之线性方法——主成分分析PCA、独立成分分析ICA、线性判别分析LDA...

    本文简单整理了以下内容: (一)维数灾难 (二)特征提取--线性方法 1. 主成分分析PCA 2. 独立成分分析ICA 3. 线性判别分析LDA (一)维数灾难(Curse of dimensiona ...

  4. 【机器学习】机器学习之线性判别分析(LDA)

    目录 一.线性判别分析介绍 二.线性判别分析原理 1. 类内散度矩阵(within-class scatter matrix) 2. 类间散度矩阵(between-class scatter matr ...

  5. 线性分类(二)-- 线性判别分析 LDA

    在机器学习领域,LDA是两个常用模型的简称:线性判别分析(Linear Discriminant Analysis) 和隐含狄利克雷分布(Latent Dirichlet Allocation).在自 ...

  6. 『矩阵论笔记』线性判别分析(LDA)最全解读+python实战二分类代码+补充:矩阵求导可以参考

    线性判别分析(LDA)最全解读+python实战二分类代码! 文章目录 一.主要思想! 二.具体处理流程! 三.补充二中的公式的证明! 四.目标函数的求解过程! 4.1.优化问题的转化 4.2.拉格朗 ...

  7. sklearn实现lda模型_运用sklearn进行线性判别分析(LDA)代码实现

    基于sklearn的线性判别分析(LDA)代码实现 一.前言及回顾 本文记录使用sklearn库实现有监督的数据降维技术--线性判别分析(LDA).在上一篇LDA线性判别分析原理及python应用(葡 ...

  8. 线性判别分析(LDA)原理及应用详解

    前置知识 线性分类 指存在一个线性方程可以把待分类数据分开,或者说用一个超平面能将正负样本区分开,表达式为 . 线性分类器 线性分类器就是用一个"超平面"将两个样本隔离开,如: 二 ...

  9. 数据分享|R语言逻辑回归、线性判别分析LDA、GAM、MARS、KNN、QDA、决策树、随机森林、SVM分类葡萄酒交叉验证ROC...

    全文链接:http://tecdat.cn/?p=27384 在本文中,数据包含有关葡萄牙"Vinho Verde"葡萄酒的信息(点击文末"阅读原文"获取完整代 ...

最新文章

  1. CAS (10) —— JBoss EAP 6.4下部署CAS时出现错误exception.message=Error decoding flow execution的解决办法...
  2. SAP MM已经转成PO的采购申请Item依旧可以被删除?
  3. [学习笔记]Segment Tree Beats!九老师线段树
  4. beego学习笔记(4):开发文档阅读(3)
  5. linux 功能测试宏 POSIX_C_SOURCE
  6. 用了10年的微信表情,它居然偷偷把烟给戒了...
  7. Java算法之 选择排序
  8. 如何构建具有实时搜索功能的React Native FlatList
  9. CSS 设置列表格式
  10. Velocity教程 (zhuan)
  11. linux下看io等待时间,Linux下用iostat探测IO使用情况
  12. vb mysql 教程_[转载]VB.net教程之数据库简单操作
  13. html整体居中文字,html文字居中 html图片居中代码
  14. 本源量子计算机云平台,本源量子计算云平台
  15. [每日一氵] python string format按照索引ID失效
  16. Jetpack Compose中的Modifier
  17. android 光线传感器的使用
  18. 【Vue】“npm WARN ajv-keywords@3.2.0 requires a peer of ajv@^6.0.0 but none is installed.”
  19. 六顶思考帽(edward de bono)
  20. 计算机英语职业规划,英语专业职业规划

热门文章

  1. [ch03-01] 均方差损失函数
  2. WPF TextBox笔刷特效
  3. 使用Egret插件压缩代码包体积,减少请求数量的实战教程
  4. 分享一道大厂面试官都喜欢问的玻璃球问题
  5. Ubuntu下EDonkey驴子下载软件mldonkey安装使用
  6. 量子力学的实验验证:双缝实验和贝尔不等式
  7. git revert讲解
  8. DBeaver SQL 编辑器显示行号
  9. Android 努比亚Z9min root 以及 data文件夹读写权限开放
  10. HTML5中article元素的使用