主成分回归python实现
主成分分析python实现
这是我一直都想写的内容,但是迟迟没有动手开始写,主要的原因是没有理解python中PCA降维后再进行回归时应该要怎么做。再网上查了很多资料,也没有这方面的讲解,书上也是讲到了PCA降维就结束了。以下是我使用R语言的思想写的code,日后若找到相关的内容再进行修改。
先介绍一下sklearn中PCA模型的参数及方法:
参数:
n_components : int,float,None或string(‘mle’)
要保留的主成分数量。如果未设置n_components,则保留所有主成分, 如果n_components = 1, 表示保留一个主成分(第一主成分)
copy : bool(默认为True)
表示是否将原始数据复制。如果为False,则传递给fit的数据将被覆盖并且运行fit(X).transform(X)将不会产生预期结果,请改用fit_transform(X)。
whiten : bool,可选(默认为False)
表示是否白化,使得每个特征具有相同的方差。
当为True(默认为False)时,components_矢量乘以n_samples的平方根,然后除以奇异值,以确保具有单位分量方差的不相关输出。
白化将从变换后的信号中去除一些信息(组件的相对方差尺度),但有时可以通过使数据遵循一些硬连线假设来提高下游估计器的预测精度。
属性
components_ : array,shape(n_components,n_features)
特征空间中的主轴,表示数据中最大方差的方向。
explained_variance_ : 阵列,形状(n_components,)
由每个所选主成分解释的方差量。
explained_variance_ratio_ : 阵列,形状(n_components,)
每个所选主成分解释的差异百分比。主成分方差占总方差的百分数
singular_values_ : 数组,形状(n_components,)
对应于每个所选主成分的奇异值。奇异值等于n_components 低维空间中变量的2范数。
mean_ : array,shape(n_features,)
根据训练集估计的每个特征经验均值。等于X.mean(axis=0)
n_components_ : int
主成分个数
方法:
fit(X) 用X训练模型,返回训练后的模型
fit_transform(X) 用X训练模型,返回降维后的数据 Z (主成分矩阵,可以用来建立回归模型的数据)
transform(X)
将数据X转换成降维后的数据.。 当模型训练好后,对于新输入的数据,也可以用transform方法来降维。(此时返回的数据是主成分Z, Zi = a1x1 +…+apxp)
get_covariance()
cov = components_.T * S**2 * components_ + sigma2 * eye(n_features)
其中S ** 2包含解释的方差,sigma2包含噪声方差。
计算与生成模型的数据协方差。返回估计的协方差
get_params()
获取生成该模型时所传入的参数
get_precision()
用生成的模型计算数据精度矩阵
inverse_transform(X )
返回原始数据X, 这可能跟未转换前的原始数据有所差别,但是差别不是很大
score(X)
返回所有样本的平均对数似然。
score_samples(X )
返回每个样本的对数似然
案例实现
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.model_selection import train_test_split# 读取数据
data = pd.read_csv(filepath , encoding = 'UTF-8')
注:原始数据中有5个变量,一个因变量.
1、 对数据进行标准化处理 (pca中默认的标准化是直接减去均值,但是在建模的过程中,感觉这样子不是很好,所以我先对数据进行标准化处理,而后才进行pca降维操作
对于标准化的方法有很多, 有兴趣的可以参考这篇文章:常用的数据标准化方法
我这里采用的是z_score标准化方法(x - u)/sigma
# 对数据进行标准化
X = (X - X.mean())/np.std(X)
Y = (Y - Y.mean())/np.std(Y)
# 对数据进行分割
X_train, X_test, Y_train, Y_test = train_test_split(X,Y,train_size=0.7, random_state=1)
# 创建pca模型
pca = PCA(n_components='mle')
# 对模型进行训练
pca.fit(X_train)
# 返回降维后据
X_train = pca.transform(X_train)# 使用返回后的数据用线性回归模型进行建模
import statsmodels.api as sm
ols = sm.OLS(Y_train, X_train).fit()
ols.summary()
由图片可以看到,ols回归后的R^2 是0.972, p值很小,说明模型拟合的很好。
# 使用LinearRegression进行拟合,其实这两种拟合的都差不多
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
lr.fit(X_train,Y_train) # 模型训练
lr.score(X_train, Y_train) # 获取模型的得分
输出结果为:
0.9715782626501834
对X_test 进行预测
y_pred = lr.predict(X_test)
建立线性模型并查看y_pred与y_test的R^2
olsr = sm.OLS(y_pred, Y_test).fit()
olsr.summary()
输出的结果显示为:0.877
说明预测的效果还不错,但是如果想要得到更高的预测效果,就需要再从其他方面想想原因了。如:指标是否齐全,模型是否合理,数据是否由缺失,缺失数据的处理方法等。
完整的代码已经上传到:github:https://github.com/DDchenyidi
参考文献:
scikit-learn官网:https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html
sklearn中PCA的使用方法:https://www.jianshu.com/p/8642d5ea5389
主成分回归python实现相关推荐
- Python数据分析案例22——财经新闻可信度分析(线性回归,主成分回归,随机森林回归)
本次案例还是适合人文社科领域,金融或者新闻专业.本科生做线性回归和主成分回归就够了,研究生还可以加随机森林回归,其方法足够人文社科领域的硕士毕业论文了. 案例背景 有八个自变量,['微博平台可信度', ...
- 机器学习——数据的共线性问题(岭回归、LASSO回归、逐步回归、主成分回归)
一.如何检验共线性 容忍度(Trlerance):容忍度是每个自变量作为因变量对其他自变量进行回归建模时得到的残差比例,大小用1减得到的决定系数来表示.容忍度的值介于0和1之间,如果值越小,说明这个自 ...
- R语言主成分回归(PCR)、 多元线性回归特征降维分析光谱数据和汽车油耗、性能数据...
原文链接:http://tecdat.cn/?p=24152 什么是PCR?(PCR = PCA + MLR)(点击文末"阅读原文"获取完整代码数据). • PCR是处理许多 x ...
- 高维数据惩罚回归方法:主成分回归PCR、岭回归、lasso、弹性网络elastic net分析基因数据...
原文链接:http://tecdat.cn/?p=23378 1 介绍 在本文中,我们将研究以下主题 证明为什么低维预测模型在高维中会失败. 进行主成分回归(PCR). 使用glmnet()进行岭回归 ...
- 偏最小二乘回归(PLSR)和主成分回归(PCR)
本项目中我们被要求显示如何在matlab中应用偏最小二乘回归(PLSR)和主成分回归(PCR),并讨论这两种方法的有效性.当存在大量预测变量时,PLSR和PCR都是对因变量建模的方法,并且这些预测变量 ...
- MATLAB中的偏最小二乘回归(PLSR)和主成分回归(PCR)
通过Matlab示例来解释偏最小二乘的原理 此示例显示如何在matlab中应用偏最小二乘回归(PLSR)和主成分回归(PCR),并讨论这两种方法的有效性. 当存在大量预测变量时,PLSR和PCR都是对 ...
- matlab偏最小二乘截距,matlab代写偏最小二乘回归(PLSR)和主成分回归(PCR)
原标题:matlab代写偏最小二乘回归(PLSR)和主成分回归(PCR) 原文:http://tecdat.cn/?p=2655 此示例显示如何在matlab中应用偏最小二乘回归(PLSR)和主成分回 ...
- 主成分分析,充分图,聚类,主成分回归——数据分析与R语言 Lecture 11
主成分分析,充分图,聚类,主成分回归--数据分析与R语言 Lecture 11 主成分分析 例子:求相关矩阵特征值 例子:求主成分载荷 例子:画碎石图确定主成分 例子:主成分得分-相当于predict ...
- R语言之主成分回归与偏最小二乘xt8.3xt8.4
第8章 主成分回归与偏最小二乘 8.3 对例5.5的Hald水泥问题用主成分回归方法建立模型,并与其他方法的结果进行比较. 8.4 对例5.5的Hald水泥问题用偏最小二乘方法建立模型,并与其他方法的 ...
最新文章
- 如何把文件隐藏在一张图片里面
- .Net中url传递中文的解决方案
- php redis删除所有key,php redis批量删除key的方法
- 你的代码(软件)安全吗?【信息图】
- HTML5 API详解(8):worker多线程教你如何避免页面卡死
- python创建空txt文件_python创建txt文件
- linux系统反应优化,细说Linux系统优化-实践篇【转载】
- parent.window php,javascript中的window.self、window.top、window.parent和window.opener详解
- Hadoop 集群搭建补充
- 使用SqlBulkCopy 批量操作大量数据
- 查看mysql 二进制日志_Mysql主从复制原理及搭建
- 统计相关国际期刊汇总
- oracle用户新建和授权,oracle创建用户及受权
- 硬盘容量的计算方法,这就是为什么实际容量总比官方标示少的原因
- 【算法】ACO蚂蚁寻路最短路径TSP问题-多篇文章总结
- OpenCV——去雾
- 腾讯视频 电视剧/电影 分类统计大全
- 是用来将汉字输入到计算机中的一组,计算机应用基础(windows7+office2010)教学课件作者张巍4.ppt...
- 手推车轮 trolley wheel
- rollback mysql_MySQL事务-ROLLBACK,COMMIT用法详解
热门文章
- 数据传送类指令(PUSH,POP,LEA)
- 如何利用实验室信息管理系统LIMS轻松通过CNAS评审?
- 总结性能优化:构建你的前端知识体系
- c# 中文数字转阿拉伯数字
- Flash报表控件(FusionCharts) 使用
- gom引擎Gompj.dll跟Key.lic做什么的
- python智慧树判断题_智慧树_Python数据分析与数据可视化_判断题答案
- android一行三列,Android -- listview实现一行多列效果
- A Survey on Metaverse: Fundamentals, Security, and Privacy
- 2022小红书搜索词布局实战手册