为什么要做降维:

  1. 提高计算效率
  2. 留存有用的特征,为后续建模使用

在项目中实际拿到的数据,可能会有几百个维度(特征)的数据集,这样的数据集在建模使用时,非常消耗计算资源,所以需要通过使用降维方法来优化数据集

线性判别分析(Linear Discriminant Analysis)

  • 用途:数据预处理中的降维,分类任务(有监督问题)

  • 目标:LDA关心的是能够最大化类间区分度的坐标轴成分
    将特征空间(数据集中的多维样本)投影到一个维度更小的 k 维子空间中,同时保持区分类别的信息

  • 原理:投影到维度更低的空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类别的点,将会在投影后的空间中更接近

  • 投影:找到更合适分类的空间

  • 监督性:LDA是“有监督”的,它计算的是另一类特定的方向

线性判别分析要优化的目标:
数学原理:

原始数据:

变换数据:

目标:找到该投影
y = w T x y = w^Tx y=wTx

重点:如何求解 w w w

LDA分类的一个目标是使得不同类别之间的距离越远越好,另一个目标是使得同一类别之中的距离越近越好

如何算不同簇之间的距离?

在算簇之间的距离时,因为一个簇中,各个点的分布并不均匀,不能按照其中某一个点或几个点之间的距离来计算,可能存在选中的点偏离簇的点聚集区域,因此需要对簇算平均值再计算簇之间的距离

投影前的每类样例(簇)的均值:
μ i = 1 N i ∑ x ∈ w i x \mu _i = \frac{1}{N_i}\sum_{x\in w_i}x μi​=Ni​1​x∈wi​∑​x

投影后的每类样例(簇)的均值:
μ i ~ = 1 N i ∑ y ∈ w i y = 1 N i ∑ x ∈ w i w T x = w T μ i \tilde{\mu _i} = \frac{1}{N_i}\sum_{y\in w_i}y= \frac{1}{N_i}\sum_{x\in w_i}w^T x=w^T \mu _i μi​~​=Ni​1​y∈wi​∑​y=Ni​1​x∈wi​∑​wTx=wTμi​

投影后要使两类样本中心点尽量分离,其目标函数为:
j ( w ) = ∣ μ 1 ~ − μ 2 ~ ∣ = ∣ w T ( μ 1 − μ 2 ) ∣ j(w)=|\tilde{\mu _1}-\tilde{\mu _2}|=|w^T(\mu_1-\mu_2)| j(w)=∣μ1​~​−μ2​~​∣=∣wT(μ1​−μ2​)∣
得到了目标函数,还有一个问题,是不是使 j ( w ) j(w) j(w) 最大化就可以了呢?

通过这张图可以看到,在 x 1 x_1 x1​ 轴方向的 μ ∗ \mu_* μ∗​ 的差值比在 x 2 x_2 x2​ 轴方向的大,但在 x 1 x_1 x1​ 轴方向显然比在 x 2 x_2 x2​ 轴方向的分类效果差,所以就有了上面那个目标2,不仅要使得不同类别之间的距离越远越好,还要使得同一类别之中的距离越近越好

因此我们需要引入新的方法 — 散列值

散列值:样本点的密集程度,值越大,越分散,反之,越集中
s t ~ 2 = ∑ y ∈ w i ( y − μ i ~ ) 2 \tilde{s_t}^2 = \sum_{y\in w_i}(y-\tilde{\mu_i})^2 st​~​2=y∈wi​∑​(y−μi​~​)2

对于离散值描述的散列值越小,越集中,那么对此函数的要求就是越小越好

对一个二分类问题,即希望 s 1 + s 2 s_1+s_2 s1​+s2​ 越小越好

因此我们得到了符合两个标准的目标函数:

j ( w ) = ∣ μ 1 ~ − μ 2 ~ ∣ s 1 ~ 2 − s 2 ~ 2 j(w)=\frac{|\tilde{\mu_1}-\tilde{\mu_2}|}{\tilde{s_1}^2-\tilde{s_2}^2} j(w)=s1​~​2−s2​~​2∣μ1​~​−μ2​~​∣​

对于此目标函数的优化方向是 j ( w ) j(w) j(w) 越大越好

散列值公式展开:
s t ~ = ∑ y ∈ w i ( y − μ i ~ ) 2 = ∑ x ∈ w i ( w T x − w T μ i ) 2 = ∑ x ∈ w i w T ( x − μ i ) ( x − μ i ) T w \tilde{s_t} = \sum_{y\in w_i}(y-\tilde{\mu_i})^2=\sum_{x\in w_i}(w^Tx-w^T\mu_i)^2 = \sum_{x\in w_i}w^T(x-\mu_i)(x-\mu_i)^Tw st​~​=y∈wi​∑​(y−μi​~​)2=x∈wi​∑​(wTx−wTμi​)2=x∈wi​∑​wT(x−μi​)(x−μi​)Tw

散列矩阵(scatter matrices):
S i = ∑ x ∈ w i ( x − μ i ) ( x − μ i ) T S_i =\sum_{x\in w_i}(x-\mu_i)(x-\mu_i)^T Si​=x∈wi​∑​(x−μi​)(x−μi​)T

类内散布矩阵:
S w = S 1 + S 2 s i ~ 2 = w T S i w s 1 ~ 2 + s 2 ~ 2 = w T S w w \begin{aligned} S_w &= S_1+S_2 \\ \tilde{s_i}^2&=w^TS_iw \\ \tilde{s_1}^2 + \tilde{s_2}^2 &= w^TS_ww \end{aligned} Sw​si​~​2s1​~​2+s2​~​2​=S1​+S2​=wTSi​w=wTSw​w​

目标函数分子展开:
( μ 1 ~ − μ 2 ~ ) = ( w T μ 1 − w T μ 2 ) 2 = w T ( μ 1 − μ 2 ) ( μ 1 − μ 2 ) T w (\tilde{\mu_1}-\tilde{\mu_2})=(w^T\mu_1-w^T\mu_2)^2=w^T(\mu_1-\mu_2)(\mu_1-\mu_2)^Tw (μ1​~​−μ2​~​)=(wTμ1​−wTμ2​)2=wT(μ1​−μ2​)(μ1​−μ2​)Tw
S B = ( μ 1 − μ 2 ) ( μ 1 − μ 2 ) T S_B=(\mu_1-\mu_2)(\mu_1-\mu_2)^T SB​=(μ1​−μ2​)(μ1​−μ2​)T,类间散布矩阵:
w T ( μ 1 − μ 2 ) ( μ 1 − μ 2 ) T w = w T S B w w^T(\mu_1-\mu_2)(\mu_1-\mu_2)^Tw = w^TS_Bw wT(μ1​−μ2​)(μ1​−μ2​)Tw=wTSB​w

得到最终目标函数:
j ( w ) = w T S B w w T S w w j(w) = \frac{w^TS_Bw}{w^TS_ww} j(w)=wTSw​wwTSB​w​

线性判别分析求解:

使用拉格朗日乘子法求导求解

分母进行归一化:如果分子、分母是都可以取任意值的,那就会使得有无穷解,我们将分母限制为长度为1
c ( w ) = w t S B w − λ ( w t S w w − 1 ) ⇒ d c d w = 2 S B w − 2 λ S w w = 0 ⇒ S B w = λ S w w \begin{aligned} &c(w)=w^tS_Bw-\lambda(w^tS_ww-1) \\ &\Rightarrow \frac{d_c}{d_w}=2S_Bw-2\lambda S_ww=0 \\ &\Rightarrow S_Bw=\lambda S_ww \end{aligned} ​c(w)=wtSB​w−λ(wtSw​w−1)⇒dw​dc​​=2SB​w−2λSw​w=0⇒SB​w=λSw​w​

两边都乘以Sw的逆:
S w − 1 S B w = λ w S_w^{-1}S_Bw=\lambda w Sw−1​SB​w=λw

至此, w w w 就是矩阵 S w − 1 S B S_w^{-1}S_B Sw−1​SB​ 的特征向量了,得到 S w − 1 S_w^{-1} Sw−1​、 S B S_B SB​, w w w 就可以求出来了

LDA算法代码练习

这里使用的是鸢尾花数据,先导入数据,看一下,这个数据集现在是4维的,这里将通过LDA将其改变为2维:

import pandas as pd
# 创建标签
feature_dict = {i:label for i,label in zip(range(4),('sepal length in cm','sepal width in cm','petal length in cm','petal width in cm', ))}
# 导入数据
df = pd.io.parsers.read_csv(filepath_or_buffer='https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data',header=None,sep=',',)
# 修改列名
df.columns = [l for i,l in sorted(feature_dict.items())] + ['class label']
df.dropna(how="all", inplace=True) # to drop the empty line at file-end
# 展示
df.tail()


数据集结构如下:

X = [ x 1 s e p a l l e n g t h x 1 s e p a l w i d t h x 1 p e t a l l e n g t h x 1 p e t a l w i d t h x 2 s e p a l l e n g t h x 2 s e p a l w i d t h x 2 p e t a l l e n g t h x 2 p e t a l w i d t h . . . x 150 s e p a l l e n g t h x 150 s e p a l w i d t h x 150 p e t a l l e n g t h x 150 p e t a l w i d t h ] , y = [ w s e t o s a w s e t o s a . . . w v i r g i n i c a ] X= \begin{bmatrix} x_{1sepal length} & x_{1sepal width} & x_{1petal length} & x_{1petal width} \\ x_{2sepal length} & x_{2sepal width} & x_{2petal length} & x_{2petal width} \\ ... & & & \\ x_{150sepal length} & x_{150sepal width} & x_{150petal length} & x_{150petal width} \end{bmatrix} ,y= \begin{bmatrix} w_{setosa}\\ w_{setosa}\\ ...\\ w_{virginica} \end{bmatrix} X=⎣⎢⎢⎡​x1sepallength​x2sepallength​...x150sepallength​​x1sepalwidth​x2sepalwidth​x150sepalwidth​​x1petallength​x2petallength​x150petallength​​x1petalwidth​x2petalwidth​x150petalwidth​​⎦⎥⎥⎤​,y=⎣⎢⎢⎡​wsetosa​wsetosa​...wvirginica​​⎦⎥⎥⎤​

看完数据集发现,标签是字符串的形式,需要将其改为数字才可以,这里我们使用 sklearnLabelEncoder 方法进行转换,使得 label_dict = {1: 'Setosa', 2: 'Versicolor', 3:'Virginica'}

from sklearn.preprocessing import LabelEncoderX = df[['sepal length in cm','sepal width in cm','petal length in cm','petal width in cm']].values
y = df['class label'].values
# 实例化
enc = LabelEncoder()
# 执行操作
label_encoder = enc.fit(y)
y = label_encoder.transform(y) + 1

变换标签后,是这样的形式:

y = [ w s e t o s a w s e t o s a . . . w v i r g i n i c a ] ⇒ [ 1 1 . . . 3 ] y= \begin{bmatrix} w_{setosa}\\ w_{setosa}\\ ...\\ w_{virginica} \end{bmatrix} \Rightarrow \begin{bmatrix} 1\\ 1\\ ...\\ 3 \end{bmatrix} y=⎣⎢⎢⎡​wsetosa​wsetosa​...wvirginica​​⎦⎥⎥⎤​⇒⎣⎢⎢⎡​11...3​⎦⎥⎥⎤​

分别求三种鸢尾花数据在不同特征维度上的均值向量 m i m _i mi​

m i = [ μ w i ( s e p a l l e n g t h ) μ w i ( s e p a l w i d t h ) μ w i ( p e t a l l e n g t h ) μ w i ( p e t a l w i d t h ) ] , w i t h i = 1 , 2 , 3 m_i= \begin{bmatrix} \mu_{w_i(sepal length)}\\ \mu_{w_i(sepal width)}\\ \mu_{w_i(petal length)}\\ \mu_{w_i(petal width)} \end{bmatrix},with i=1,2,3 mi​=⎣⎢⎢⎡​μwi​(sepallength)​μwi​(sepalwidth)​μwi​(petallength)​μwi​(petalwidth)​​⎦⎥⎥⎤​,withi=1,2,3

import numpy as np
np.set_printoptions(precision=4)mean_vectors = []
for cl in range(1,4):mean_vectors.append(np.mean(X[y==cl], axis=0))print('Mean Vector class %s: %s\n' %(cl, mean_vectors[cl-1]))
Mean Vector class 1: [5.006 3.418 1.464 0.244]
Mean Vector class 2: [5.936 2.77  4.26  1.326]
Mean Vector class 3: [6.588 2.974 5.552 2.026]

因为在上述公式推导中,最后与 w w w 有关的是类内散布矩阵类间散布矩阵,那么只需要计算这两个结果即可

类内散布矩阵
S w = ∑ i = 1 c S i S i = ∑ x ∈ D i n ( x − m i ) ( x − m i ) T m i = 1 n i ∑ x ∈ D i n x k \begin{aligned} S_w &= \sum_{i=1}^{c}S_i \\ S_i &=\sum_{x\in D_i}^{n}(x-m_i)(x-m_i)^T \\ m_i &=\frac{1}{n_i}\sum_{x\in D_i}^{n}x_k \end{aligned} Sw​Si​mi​​=i=1∑c​Si​=x∈Di​∑n​(x−mi​)(x−mi​)T=ni​1​x∈Di​∑n​xk​​

# 构造矩阵 4*4
S_W = np.zeros((4,4))
for cl,mv in zip(range(1,4), mean_vectors):class_sc_mat = np.zeros((4,4))                  # 每个类的散布矩阵for row in X[y == cl]:row, mv = row.reshape(4,1), mv.reshape(4,1) # 生成列向量class_sc_mat += (row-mv).dot((row-mv).T)S_W += class_sc_mat                             # 求和
print('类内散布矩阵:\n', S_W)
类内散布矩阵:[[38.9562 13.683  24.614   5.6556][13.683  17.035   8.12    4.9132][24.614   8.12   27.22    6.2536][ 5.6556  4.9132  6.2536  6.1756]]

类间散布矩阵
在原推导流程里面,是由两个类之间的均值相减,这里为了简化算法,提高计算速度,使用每个类别与全局均值的差值计算
S B = ∑ i = 1 c N i ( m i − m ) ( m i − m ) T S_B=\sum _{i=1}^{c}N_i(m_i-m)(m_i-m)^T SB​=i=1∑c​Ni​(mi​−m)(mi​−m)T

m m m 是全局均值,而 m i m_i mi​ 和 N i N_i Ni​ 是每类样本的均值和样本数

overall_mean = np.mean(X, axis=0)
S_B = np.zeros((4,4))
for i,mean_vec in enumerate(mean_vectors):  n = X[y==i+1,:].shape[0]mean_vec = mean_vec.reshape(4,1)overall_mean = overall_mean.reshape(4,1)S_B += n * (mean_vec - overall_mean).dot((mean_vec - overall_mean).T)
print('类间散布矩阵:\n', S_B)
类间散布矩阵:[[ 63.2121 -19.534  165.1647  71.3631][-19.534   10.9776 -56.0552 -22.4924][165.1647 -56.0552 436.6437 186.9081][ 71.3631 -22.4924 186.9081  80.6041]]
求解矩阵的特征值与特征向量:

S w − 1 S B S_w^{-1}S_B Sw−1​SB​

特征值与特征向量

  • 特征向量:表示映射方向
  • 特征值:特征向量的重要程度
# 拿到特征值和特征向量
eig_vals, eig_vecs = np.linalg.eig(np.linalg.inv(S_W).dot(S_B))
# 展示特征值与特征向量
for i in range(len(eig_vals)):eigvec_sc = eig_vecs[:,i].reshape(4,1)   print('\nEigenvector {}: \n{}'.format(i+1, eigvec_sc.real))print('Eigenvalue {:}: {:.2e}'.format(i+1, eig_vals[i].real))
Eigenvector 1:
[[ 0.2049][ 0.3871][-0.5465][-0.7138]]
Eigenvalue 1: 3.23e+01Eigenvector 2:
[[-0.009 ][-0.589 ][ 0.2543][-0.767 ]]
Eigenvalue 2: 2.78e-01Eigenvector 3:
[[-0.7113][ 0.0353][-0.0267][ 0.7015]]
Eigenvalue 3: -5.76e-15Eigenvector 4:
[[ 0.422 ][-0.4364][-0.4851][ 0.6294]]
Eigenvalue 4: 7.80e-15

目前为止,还是4个维度的数据,接下来要将其降维至两个维度,从四个维度中选择两个维度映射至其上

# 列出(特征值,特征向量)元组
eig_pairs = [(np.abs(eig_vals[i]), eig_vecs[:,i]) for i in range(len(eig_vals))]
# 将(特征值,特征向量)元组从高到低排序
eig_pairs = sorted(eig_pairs, key=lambda k: k[0], reverse=True)
# 通过降低特征值来直观地确认列表已正确排序
print('降阶特征值:\n')
for i in eig_pairs:print(i[0])
降阶特征值:
32.27195779972981
0.27756686384003953
1.1483362279322388e-14
3.422458920849769e-15
print('差异百分比:\n')
eigv_sum = sum(eig_vals)
for i,j in enumerate(eig_pairs):print('特征值 {0:}: {1:.2%}'.format(i+1, (j[0]/eigv_sum).real))
差异百分比:
特征值 1: 99.15%
特征值 2: 0.85%
特征值 3: 0.00%
特征值 4: 0.00%

看完特征差异后,就确定了重要性最大的前两个维度,选择前两个维度特征,作为降维的目标

组合重要性排序的前两个维度:

W = np.hstack((eig_pairs[0][1].reshape(4,1), eig_pairs[1][1].reshape(4,1)))
print('矩阵 W:\n', W.real)
矩阵 W:[[-0.2049 -0.009 ][-0.3871 -0.589 ][ 0.5465  0.2543][ 0.7138 -0.767 ]]

到这里就得到了我们前面公式推导中的 w w w,接下来就可以做降维任务了

# 降维
X_lda = X.dot(W) # [150,4]*[4,2] → [150,2]
# 判断结果
assert X_lda.shape == (150,2), "The matrix is not 150x2 dimensional."

画图查看结果:

from matplotlib import pyplot as pltlabel_dict = {1: 'Setosa', 2: 'Versicolor', 3:'Virginica'}def plot_step_lda():for label,marker,color in zip(range(1,4),('^', 's', 'o'),('blue', 'red', 'green')):plt.scatter(x=X_lda[:,0].real[y == label],y=X_lda[:,1].real[y == label],marker=marker,color=color,alpha=0.5,label=label_dict[label])plt.xlabel('LD1')plt.ylabel('LD2')leg = plt.legend(loc='upper right', fancybox=True)leg.get_frame().set_alpha(0.5)plt.title('LDA: Iris projection onto the first 2 linear discriminants')plt.grid()plt.tight_layoutplt.show()
# 执行
plot_step_lda()

原始数据分布:

降维数据分布:

在Sklearn中也有相对应的 LDA 算法的 API
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA
# LDA 实例化 降低为2维
sklearn_lda = LDA(n_components=2)
# 执行
X_lda_sklearn = sklearn_lda.fit_transform(X, y)

查看结果:

对比这两个结果,Sklearn 与 我们自己写的代码效果差不多

主成分分析(Principal Component Analysis)

  • 用途:降维中最常用的一种手段
  • 目标:提取最有价值的信息(基于方差,无监督问题)
  • 意义:降维后的数据没有实际的意义
向量的表示及基变换
  • 内积:

( a 1 , a 2 , . . . , a n ) T ⋅ ( b 1 , b 2 , . . . , b n ) T = a 1 b 1 + a 2 b 2 + . . . + a n b n (a_1,a_2,...,a_n)^T \cdot (b_1,b_2,...,b_n)^T=a_1b_1+a_2b_2+...+a_nb_n (a1​,a2​,...,an​)T⋅(b1​,b2​,...,bn​)T=a1​b1​+a2​b2​+...+an​bn​

解释:
A ⋅ B = ∣ A ∣ ∣ B ∣ c o s ( a ) A \cdot B=|A||B|cos(a) A⋅B=∣A∣∣B∣cos(a)

向量可以表示为 ( 3 , 2 ) (3,2) (3,2),实际上表示线性组合:
x ( 1 , 0 ) T + y ( 0 , 1 ) T x(1,0)^T+y(0,1)^T x(1,0)T+y(0,1)T

  • 基: ( 1 , 0 ) (1,0) (1,0) 和 ( 0 , 1 ) (0,1) (0,1) 叫做二维空间中的一组基

基是正交的,即内积为0,或直观说相互垂直,线性无关

  • 基变换

变换:数据与一个基做内积运算,结果作为第一个新的坐标分量,然后与第二个基做内积运算,结果作为第二个新坐标的分量

数据 ( 3 , 2 ) (3,2) (3,2) 映射到基中坐标:

( 1 2 1 2 − 1 2 1 2 ) ( 3 2 ) = ( 5 2 − 1 2 ) \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix} \binom{3}{2} =\binom{\frac{5}{\sqrt{2}}}{-\frac{1}{\sqrt{2}}} (2 ​1​−2 ​1​​2 ​1​2 ​1​​)(23​)=(−2 ​1​2 ​5​​)

基变换公式完整表达:
( p 1 p 2 . . . p R ) ( a 1 a 2 . . . a M ) = ( p 1 a 1 p 1 a 2 . . . p 1 a M p 2 a 1 p 2 a 2 . . . p 2 a M . . . . . . . . . . . . p R a 1 p R a 2 . . . p R a M ) \begin{pmatrix} p_1\\ p_2\\ ...\\ p_R \end{pmatrix} \begin{pmatrix} a_1 & a_2 & ... & a_M \end{pmatrix}= \begin{pmatrix} p_1a_1 & p_1a_2 & ... & p_1a_M\\ p_2a_1 & p_2a_2 & ... & p_2a_M\\ ... & ... & ... & ...\\ p_Ra_1 & p_Ra_2 & ... & p_Ra_M \end{pmatrix} ⎝⎜⎜⎛​p1​p2​...pR​​⎠⎟⎟⎞​(a1​​a2​​...​aM​​)=⎝⎜⎜⎛​p1​a1​p2​a1​...pR​a1​​p1​a2​p2​a2​...pR​a2​​............​p1​aM​p2​aM​...pR​aM​​⎠⎟⎟⎞​
两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去

怎么找基? — 协方差矩阵
  • 方向:如何选择这个方向(或者说基)才能尽量保留最多的原始信息呢?
    一种直观的看法是:希望投影后的投影值尽可能分散
  • 方差:
    V a r ( a ) = 1 m ∑ i = 1 m ( a i − μ ) 2 Var(a) = \frac{1}{m}\sum_{i=1}^{m}(a_i-\mu)^2 Var(a)=m1​i=1∑m​(ai​−μ)2
  • 目标:寻找一个一维基,使得所有数据变换为这个基上的坐标表示后,方差值最大
  • 协方差(假设均值为0时,数据归一化):
    方差是一个特征的分散程度,协方差是表示两个特征之间的相关性,两个特征变化越相似的则协方差越大
    C o v ( a , b ) = 1 m ∑ i = 1 m a i b i Cov(a,b)=\frac{1}{m}\sum_{i=1}^{m}a_ib_i Cov(a,b)=m1​i=1∑m​ai​bi​

如果单纯只选择方差最大的方向,后续方向应该会和方差最大的方向接近重合,那么这样就会使得它们之间存在(线性)相关性的,为了让两个字段尽可能表示更多的原始信息,我们是不希望它们之间存在(线性)相关性的,那么我们需要找到相互垂直的基,这时候就要使用协方差解决,协方差可以用来表示其相关性

当协方差为0时,表示两个字段完全独立。为了让协方差为0,选择第二个基时
只能在与第一个基正交的方向上选择。因此最终选择的两个方向一定是正交的

优化目标:

将一组N维向量降为K维(K大于0,小于N),目标是选择K个单位正交基,使原始数据变换到这组基上后,各字段两两间协方差为0,字段的方差则尽可能大

协方差矩阵:
X = ( a 1 a 2 . . . a m b 1 b 2 . . . b m ) X= \begin{pmatrix} a_1 & a_2 & ... & a_m\\ b_1 & b_2 & ... & b_m \end{pmatrix} X=(a1​b1​​a2​b2​​......​am​bm​​)
1 m X X T = ( 1 m ∑ i = 1 m a i 2 1 m ∑ i = 1 m a i b i 1 m ∑ i = 1 m a i b i 1 m ∑ i = 1 m b i 2 ) \frac{1}{m}XX^T= \begin{pmatrix} \frac{1}{m}\sum_{i=1}^{m}a_i^2 & \frac{1}{m}\sum_{i=1}^{m}a_ib_i \\ \frac{1}{m}\sum_{i=1}^{m}a_ib_i & \frac{1}{m}\sum_{i=1}^{m}b_i^2 \end{pmatrix} m1​XXT=(m1​∑i=1m​ai2​m1​∑i=1m​ai​bi​​m1​∑i=1m​ai​bi​m1​∑i=1m​bi2​​)
矩阵对角线上的两个元素分别是两个字段的方差,而其它元素是a和b的协方差

我们的目标是想要使得协方差为0,那就是说要使得协方差矩阵中非对角线的位置处处为0,接下来操作就是进行协方差矩阵对角化:即除对角线外的其它元素化为0,并且在对角线上将元素按大小从上到下排列

协方差矩阵对角化:
P C P T = Λ = ( λ 1 λ 2 ⋱ λ n ) PCP^T=\Lambda = \begin{pmatrix} \lambda_1 & & & \\ & \lambda_2 & & \\ & & \ddots & \\ & & & \lambda_n \end{pmatrix} PCPT=Λ=⎝⎜⎜⎛​λ1​​λ2​​⋱​λn​​⎠⎟⎟⎞​

进行协方差矩阵对角化时,我们要用到实对称矩阵方法

实对称矩阵:一个n行n列的实对称矩阵一定可以找到n个单位正交特征向量
E = ( e 1 e 2 . . . e n ) E= \begin{pmatrix} e_1 & e_2 & ... & e_n \end{pmatrix} E=(e1​​e2​​...​en​​)

实对称阵可进行对角化:
E T C E = Λ = ( λ 1 λ 2 ⋱ λ n ) E^TCE=\Lambda = \begin{pmatrix} \lambda_1 & & & \\ & \lambda_2 & & \\ & & \ddots & \\ & & & \lambda_n \end{pmatrix} ETCE=Λ=⎝⎜⎜⎛​λ1​​λ2​​⋱​λn​​⎠⎟⎟⎞​

根据特征值的从大到小,将特征向量从上到下排列,则用前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y

PCA实例:

假设数据为两个特征的五条数据(二维化一维)

数据: ( − 1 − 1 0 2 0 − 2 0 0 1 1 ) \begin{pmatrix} -1 & -1 & 0 & 2 & 0\\ -2 & 0 & 0 & 1 & 1 \end{pmatrix} (−1−2​−10​00​21​01​)

协方差矩阵: C = 1 5 ( − 1 − 1 0 2 0 − 2 0 0 1 1 ) ( − 1 − 2 − 1 0 0 0 2 1 0 1 ) = ( 6 5 4 5 4 5 6 5 ) C=\frac{1}{5}\begin{pmatrix} -1 & -1 & 0 & 2 & 0\\ -2 & 0 & 0 & 1 & 1 \end{pmatrix} \begin{pmatrix} -1 & -2\\ -1 & 0\\ 0 & 0\\ 2 & 1\\ 0 & 1 \end{pmatrix}= \begin{pmatrix} \frac{6}{5} & \frac{4}{5}\\ \frac{4}{5} & \frac{6}{5} \end{pmatrix} C=51​(−1−2​−10​00​21​01​)⎝⎜⎜⎜⎜⎛​−1−1020​−20011​⎠⎟⎟⎟⎟⎞​=(56​54​​54​56​​)

特征值: λ 1 = 2 , λ 2 = 2 5 \lambda_1=2,\lambda_2=\frac{2}{5} λ1​=2,λ2​=52​

特征向量: c 1 ( 1 1 ) , c 2 ( − 1 1 ) c_1\binom{1}{1},c_2\binom{-1}{1} c1​(11​),c2​(1−1​)

对角化: P C P T = ( 1 2 1 2 − 1 2 1 2 ) ( 6 5 4 5 4 5 6 5 ) ( 1 2 − 1 2 1 2 1 2 ) = ( 2 0 0 2 5 ) PCP^T= \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \frac{6}{5} & \frac{4}{5}\\ \frac{4}{5} & \frac{6}{5} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}= \begin{pmatrix} 2 & 0\\ 0 & \frac{2}{5} \end{pmatrix} PCPT=(2 ​1​−2 ​1​​2 ​1​2 ​1​​)(56​54​​54​56​​)(2 ​1​2 ​1​​−2 ​1​2 ​1​​)=(20​052​​)

降维: Y = ( 1 2 1 2 ) ( − 1 − 1 0 2 0 − 2 0 0 1 1 ) = ( − 3 2 − 1 2 0 3 2 − 1 2 ) Y=\begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} -1 & -1 & 0 & 2 & 0\\ -2 & 0 & 0 & 1 & 1 \end{pmatrix}= \begin{pmatrix} -\frac{3}{\sqrt{2}} & -\frac{1}{\sqrt{2}} & 0 & \frac{3}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} Y=(2 ​1​​2 ​1​​)(−1−2​−10​00​21​01​)=(−2 ​3​​−2 ​1​​0​2 ​3​​−2 ​1​​)

PCA算法代码练习

# 读取数据
import numpy as np
import pandas as pd
df = pd.read_csv('iris.data')
# 指定列名
df.columns=['sepal_len', 'sepal_wid', 'petal_len', 'petal_wid', 'class']
# 将数据表拆分为数据X和类标签y
X = df.ix[:,0:4].values
y = df.ix[:,4].values

数据可视化展示

from matplotlib import pyplot as plt
import math
label_dict = {1: 'Iris-Setosa',2: 'Iris-Versicolor',3: 'Iris-Virgnica'}
feature_dict = {0: 'sepal length [cm]',1: 'sepal width [cm]',2: 'petal length [cm]',3: 'petal width [cm]'}
plt.figure(figsize=(8, 6))
for cnt in range(4):plt.subplot(2, 2, cnt+1)for lab in ('Iris-setosa', 'Iris-versicolor', 'Iris-virginica'):plt.hist(X[y==lab, cnt],label=lab,bins=10,alpha=0.3,)plt.xlabel(feature_dict[cnt])plt.legend(loc='upper right', fancybox=True, fontsize=8)
plt.tight_layout()
plt.show()


对数据进行标准化:

from sklearn.preprocessing import StandardScaler
X_std = StandardScaler().fit_transform(X)
mean_vec = np.mean(X_std, axis=0)
cov_mat = (X_std - mean_vec).T.dot((X_std - mean_vec)) / (X_std.shape[0]-1)
print('协方差矩阵 \n%s' %cov_mat)
协方差矩阵
[[ 1.00675676 -0.10448539  0.87716999  0.82249094][-0.10448539  1.00675676 -0.41802325 -0.35310295][ 0.87716999 -0.41802325  1.00675676  0.96881642][ 0.82249094 -0.35310295  0.96881642  1.00675676]]

计算特征值和特征向量:

cov_mat = np.cov(X_std.T)
eig_vals, eig_vecs = np.linalg.eig(cov_mat)
print('特征向量 \n%s' %eig_vecs)
print('\n特征值 \n%s' %eig_vals)
特征向量
[[ 0.52308496 -0.36956962 -0.72154279  0.26301409][-0.25956935 -0.92681168  0.2411952  -0.12437342][ 0.58184289 -0.01912775  0.13962963 -0.80099722][ 0.56609604 -0.06381646  0.63380158  0.52321917]]特征值
[2.92442837 0.93215233 0.14946373 0.02098259]

将特征值与特征向量进行对应:

# 列出(特征值,特征向量)元组
eig_pairs = [(np.abs(eig_vals[i]), eig_vecs[:,i]) for i in range(len(eig_vals))]
print (eig_pairs)
# 将(特征值,特征向量)元组从高到低排序
eig_pairs.sort(key=lambda x: x[0], reverse=True)
# 通过降序特征值来直观地确认列表已正确排序
print('\n降序特征值:')
for i in eig_pairs:print(i[0])
[(2.9244283691111144, array([ 0.52308496, -0.25956935,  0.58184289,  0.56609604])), (0.9321523302535064, array([-0.36956962, -0.92681168, -0.01912775, -0.06381646])), (0.14946373489813314, array([-0.72154279,  0.2411952 ,  0.13962963,  0.63380158])), (0.020982592764270606, array([ 0.26301409, -0.12437342, -0.80099722,  0.52321917]))]降序特征值:
2.9244283691111144
0.9321523302535064
0.14946373489813314
0.020982592764270606

做特征值的百分占比,看各特征值的重要性

tot = sum(eig_vals)
# 求特征值的百分占比
var_exp = [(i / tot)*100 for i in sorted(eig_vals, reverse=True)]
print (var_exp)
# 做累加
cum_var_exp = np.cumsum(var_exp)
cum_var_exp
[72.62003332692034, 23.147406858644135, 3.7115155645845164, 0.5210442498510154]
array([ 72.62003333,  95.76744019,  99.47895575, 100.        ])

画特征值的百分占比及重要性趋势图

from matplotlib import pyplot as pltplt.figure(figsize=(6, 4))plt.bar(range(4), var_exp, alpha=0.5, align='center',label='individual explained variance')
plt.step(range(4), cum_var_exp, where='mid',label='cumulative explained variance')
plt.ylabel('Explained variance ratio')
plt.xlabel('Principal components')
plt.legend(loc='best')
plt.tight_layout()
plt.show()


至此可以看出,前两维度的特征已经是占了95%以上的重要性,后面两个维度对结果的影响不大,那么这里就可以降到两维

# 拿到前两个特征向量
matrix_w = np.hstack((eig_pairs[0][1].reshape(4,1),eig_pairs[1][1].reshape(4,1)))
print('矩阵 W:\n', matrix_w)
# 执行降维:原数据*特征向量
Y = X_std.dot(matrix_w)
完成降维后,来看一下分类结果:

原始数据:

plt.figure(figsize=(6, 4))
for lab, col in zip(('Iris-setosa', 'Iris-versicolor', 'Iris-virginica'),('blue', 'red', 'green')):plt.scatter(X[y==lab, 0],X[y==lab, 1],label=lab,c=col)
plt.xlabel('sepal_len')
plt.ylabel('sepal_wid')
plt.legend(loc='best')
plt.tight_layout()
plt.show()


降维后的数据:

plt.figure(figsize=(6, 4))
for lab, col in zip(('Iris-setosa', 'Iris-versicolor', 'Iris-virginica'),('blue', 'red', 'green')):plt.scatter(Y[y==lab, 0],Y[y==lab, 1],label=lab,c=col)
plt.xlabel('Principal Component 1')
plt.ylabel('Principal Component 2')
plt.legend(loc='lower center')
plt.tight_layout()
plt.show()
使用数据标准化的降维结果:

使用数据归一化的降维结果:


结果显示,对于此数据来说,进行归一化能够更好的将数据进行分类

在Sklearn中也有相对应的 PCA 算法的 API
from sklearn.decomposition import PCA
# LDA 实例化 降低为2维
sklearn_lda = PCA(n_components=2)
# 执行
X_pca_sklearn = sklearn_lda.fit_transform(X)

查看结果:

plt.figure(figsize=(6, 4))
for lab, col in zip(('Iris-setosa', 'Iris-versicolor', 'Iris-virginica'),('blue', 'red', 'green')):plt.scatter(X_pca_sklearn[y==lab, 0],X_pca_sklearn[y==lab, 1],label=lab,c=col)
plt.xlabel('Principal Component 1')
plt.ylabel('Principal Component 2')
plt.legend(loc='lower center')
plt.tight_layout()
plt.show()


对比这几个结果,Sklearn 与 我们自己写的代码效果差不多

机器学习入门 --- LDA与PCA算法(公式推导、纯python代码实现、scikit-learn api调用对比结果)相关推荐

  1. eclipse的jsp第一行代码报错_机器学习之AdaBoost算法及纯python代码手工实现

    Adaboost算法是boost算法中最具代表性的一个,它是adaptive boosting的简称(自使用算法);在训练数据中的每个样本赋予一个权重,构成初始的向量D(每个样本的权重初始时均相等). ...

  2. 详解线性回归算法的纯Python实现

    ↑↑↑关注后"星标"简说Python人人都可以简单入门Python.爬虫.数据分析 简说Python推荐 来源|天池大数据科研平台作者|黄佳 零基础学机器学习--一文详解线性回归算 ...

  3. python重点知识归纳_一文了解机器学习知识点及其算法(附python代码)

    一文了解机器学习知识点及其算法(附python代码) 来源:数据城堡 时间:2016-09-09 14:05:50 作者: 机器学习发展到现在,已经形成较为完善的知识体系,同时大量的数据科学家的研究成 ...

  4. 数学建模——主成分分析算法详解Python代码

    数学建模--主成分分析算法详解Python代码 import matplotlib.pyplot as plt #加载matplotlib用于数据的可视化 from sklearn.decomposi ...

  5. 国密算法 SM2公钥密码 SM3杂凑算法 SM4分组密码 python代码完整实现

    包含SM2公钥密码.SM3杂凑算法和SM4分组密码的国密算法完整工具包完成了.此前分别发布过上述三个算法的代码: SM2:国密算法 SM2 公钥加密 非对称加密 数字签名 密钥协商 python实现完 ...

  6. 入门机器学习(十六)--降维(PCA算法)

    降维(PCA算法) 1. 数据压缩(Data Compression) 2. 数据可视化(Data Visuallization) 3. 主成分析问题(Principal Component Anal ...

  7. 机器学习入门系列之PCA降维

    目录 前言 PCA降维原理 PCA如何降维 Sklearn实现 总结 前言 今天来说说机器学习中一个比较重要的概念--主成分分析(Principal Component Analysis),简称PCA ...

  8. 【机器学习入门】(8) 线性回归算法:正则化、岭回归、实例应用(房价预测)附python完整代码和数据集

    各位同学好,今天我和大家分享一下python机器学习中线性回归算法的实例应用,并介绍正则化.岭回归方法.在上一篇文章中我介绍了线性回归算法的原理及推导过程:[机器学习](7) 线性回归算法:原理.公式 ...

  9. 史上最易懂——一文详解线性回归算法的纯Python实现

    本文作者:黄佳,极客时间专栏<零基础实战机器学习>作者,新加坡埃森哲公司高级顾问,人工智能专家,机器学习和云计算高级工程师,参与过公共事业.医疗.金融等多领域大型项目.著有<零基础学 ...

最新文章

  1. mybatis 大于小于转义_10 HTML5特性、转义字符和注释
  2. python内置数据结构教程第四版答案_Python数据结构--内置数据结构
  3. 我们需要一个时期,把我们之前的愿景用实际行动实现
  4. BAT在AI领域投资收购大起底:当我们说搞AI时我们要搞些什么?
  5. NHibernate 操作视图 第十三篇
  6. 中颖内带LED资源驱动代码
  7. RNN、LSTM、GRU
  8. Codeforce 1700Difficulty Graphs 20 questions
  9. 「测绘知识」高等级道路竖曲线的精确计算方法
  10. OpenCV C++案例实战二十三《网孔检测》
  11. 如何解决高分辨率下文本、图像和字体和布局?
  12. python 验证码识别
  13. 织梦栏目地址使用栏目名称首字母
  14. 读书笔记(8)网络故障排除工具
  15. 本地FTP服务器快速搭建(windows)
  16. 【ELT.ZIP】OpenHarmony啃论文俱乐部—一种深度神经网压缩算法
  17. 前端学习之路坑一:json对象和JS对象
  18. Python字符串算法
  19. CentOS部署ElasticSearch7.6.1集群
  20. python dll注入监听_注入方式,劫持dll注入的实现

热门文章

  1. 基于Spring Boot的个人博客系统(源码+数据库)
  2. STC51单片机制作的万年历项目(可做毕设),增加了温度显示。
  3. 无线定位技术性能对照
  4. Elasticsearch入门(一)基本介绍与安装
  5. 第二周总结(2022.10.24~2022.10.28)
  6. PHP在线云加密系统V8.01开源版
  7. pycharm pandas 经典报错 pandas.core.base.SpecificationError: nested renamer is not supported
  8. 【数字化】导致数字化转型失败的12个原因;数字化关键要看供应链 苹果和亚马逊做出了表率
  9. 3D结构光和ToF相关资料
  10. 【数据结构】一个简单的计算器