python cox回归_数据分析|回归分析(RPython)
0X01 前言
变量之间关系可以分为两类:
函数关系:反映了事务之间某种确定性关系
相关关系:两个变量之间存在某种依存关系,但二者并不是一一对应的;反映了事务间不完全确定关系;相关系数(r)可以衡量这种相关关系。r的取值范围是[-1,1],r=1表示完全正相关!r=-1表示完全负相关!r=0表示完全不相关。
为什么要对相关系数进行显著性检验?
1)实际上完全没有关系的变量,在利用样本数据进行计算时也可能得到一个较大的相关系数值(尤其是时间序列数值)
2)当样本数较少,相关系数就很大。当样本量从100减少到40后,相关系数大概率会上升,但上升到多少,这个就不能保证了;取决于你的剔除数据原则,还有这组数据真的可能不存在相关性;改变两列数据的顺序,不会对相关系数,和散点图(拟合的函数曲线)造成影响;
对两列数据进行归一化处理,标准化处理,不会影响相关系数;
我们计算的相关系数是线性相关系数,只能反映两者是否具备线性关系。相关系数高是线性模型拟合程度高的前提;此外相关系数反映两个变量之间的相关性,多个变量之间的相关性可以通过复相关系数来衡量;
线性关系检验
回归系数检验
最小二乘法是一种数学优化技术,它通过最小化误差的平方和寻找数据的最佳函数匹配。
拟合优度:顾名思义,拟合优度就是衡量一个回归做的好不好的指标,定义为
我们期望回归平方和占比越大,那么我们的模型就越好;但是回归平方和<=总平方和; 的缺陷:新增加一个变量,
会加大;所以单独用
来评价模型的好坏并不靠谱
可以联想到P值,我们总是说P<0.05,能得出显著性的结论,我们拒绝H0,接受H1(往往我们对假设进行设计时,H1是我们想要支持的假设,H0是我们反对的假设。)
至于P<0.05的标准,则是统计学家们拍脑袋拍出来的。----人大著名统计学家吴喜之
针对
的缺陷:学者们提出了调整
由此可见,R方总是小于调整R方的且调整R方可能为负;并且只有R方趋近1时,调整R方才有出马的意义!
因此判断多重共线性也多了一个方法:
选择其中一个自变量将其作为因变量,重新拟合,求
;若
趋近1,则存在多重共线性!
多元线性回归
多重共线性:多重共线性与统计假设没有直接关联,但是对于解释多元回归的结果非常重要。相关系数反应两个变量之间的相关性;回归系数是假设其他变量不变,自变量变化一个单位,对因变量的影响,而存在多重共线性(变量之间相关系数很大),就会导致解释困难;比如y~x1+x2;x·1与x2存在多重共线性,当x1变化一个单位,x2不变,对y的影响;而x1与x2高度相关,就会解释没有意义。一元回归不存在多重共线性的问题;而多元线性回归要摒弃多重共线性的影响;所以要先对所有的变量进行相关系数分析,初步判定是否满足前提---多重共线性
时间序列数据会自发呈现完全共线性问题,所以我们用自回归分析方法;
出现多重共线性如何改善:
1、删除变量对去除多重共线性最为显著。
2、不想删除变量,可以对自变量进行降维(CPA主成分分析),主成分分析后的各主成分之间是正交的,所以一定是线性无关。
3、改善模型。
0X02 一元线性回归折后消耗y,下载量xExcel绘制方法:先绘制散点图--右键--添加趋势线
0X03 多元线性回归
电力系统中长期负荷的变化受到很多因素制约,这种制约关系难以定性描述,征对负荷影 响因素的复杂性和不确定性,即多变量和随机性,笔者将多元回归分析应用到中长期电力负 荷预测之中。因变量(y)为全社会用电量,自变量通常为影响电力负荷各种因素,比如经 济,人口,气候等等,本文选择以国民生产总值 GDP(x1)、全国人口(x2)为自变量,建 立回归方程。考虑到国内五年计划对预测的影响,选择 2001-2015 年的全社会用电量作为样 本。源数据
R语言
data
newdata
fit
summary(fit)
回归方程为:
对线性回归方程进行如下假设检验:正态性检验、线性检验、独立性检验、同方差性检 验。
对线性模型进行检验发现该模型不满足同方差假设。同方差检验结果如图 1 所示
采用 R 软件包提供的 spreadLevelPlot()函数创建了一个添加最佳拟合曲线的散点图,展 示标准化残差绝对值与拟合值的关系。若满足同方差假设,图 1 中点的水平在最佳拟合曲线 周围应该呈水平随机分布,而图 1 显然不是,说明违反了同方差假设。 模型不符合同方差假设,通常可以对因变量进行 BOX-COX 变换:
利用 R 软件包提供的 powerTransform(),函数通过最大似然来估计出
,研究发现对因变 量进行对数变换,去除自变量 GDP (x1)后,拟合效果最好,且满足各种假设检验。
拟合结果如表 3 所示,模型整体解释能力如表 4 所示:
建立的回归方程:
常数项没有物理意义,只是一个常量调整项。人口的回归系数为 0.0001531,表示人口每 增加 1 万人,全社会用电量增加 1.000151 亿千瓦时,它的系数检验 P 值<0.05,表明在 0.05 的显著水平下是显著的。总体来看,人口解释了全社会用电量 98%的方差。对回归方程的 F 检验 p 值<0.05,表明预测变量人口有 95%以上的概率可以预测全社会用电量。
R 软件包中的 qqPlot(),提供了准确的正态假设检验方法,它画出了 n-p-1 个自由度下的 t 分布下的学生化残差图形,其中 n 是样本大小,p 是回归参数的数目(包括截距项)。如图 2 所示:
R 软件包中的 Durbin-Watson 检验的函数 durbinWatsonTest(),能够检验出误差的独立 性。经检验 P 值>0.05,不显著。说明误差项之间独立。
R 软件包中的 crPlots()函数绘制的成分残差图,可以检测出因变量与自变量之间是否非线 性关系,检测结果如图 所示:
R 软件包中的 spreadLevelPlot()函数创建了一个添加最佳拟合曲线的散点图,展示标准化 残差绝对值与拟合值的关系。若满足同方差假设,图 4 中点的水平在最佳拟合曲线周围应 该呈水平随机分布,结果表明符合同方差假设。
library(car)
qqPlot(fit,lables=row.names(newdata),id.method="identify",simulata=TRUE,main=" Q-Q Plot")
durbinWatsonTest(fit)
crPlots(fit)
spreadLevelPlot(fit)
ncvTest(fit)
##BOX-COX 确定因变量类型函数
summary(powerTransform(newdata$kw))
##第一种变换
fit
summary(fit) ###假设检验 ##第二种变换
fit
summary(fit) ###假设检验
fit
summary(fit) ##假设检验
fit
summary(fit)
##假设检验
fit
summary(fit)
##假设检验
y.pre
##计算预测值
fit2" />
Python回归
import numpy as np
import pandas as pd
data=pd.read_csv("C://Users//baihua//Desktop//vehicles.csv",encoding='utf-8')
df=pd.DataFrame(data)
df.columns=["code","date","y","x1","x2","x3","x4","x5","x6","x7"]
'''
思考:df=pd.DataFrame(data,columns=["code","date","y","x1","x2","x3","x4","x5","x6","x7"])
print(df)
出现NaN的原因:columns是取data中的列而不是重命名,可以调整列中的顺序但不可重命名!
'''
print(df)
df1=df.drop(["code","date"],axis=1) #中文字段名报错,需要修改为英文字段名
探索数据
做一个相关系数矩阵;
多元回归如何选择自变量?相关系数可以判断自变量是否可以预测因变量
补充:选择特征的角度很多:变量的预测能力,变量之间的相关性,变量的简单性(容易生成和使用),变量的强壮性(不容易被绕过),
变量在业务上的可解释性(被挑战时可以解释的通)等等。但是,其中最主要和最直接的衡量标准是变量的预测能力。
1、特征选择:特征发散,如果一个特征不发散,方差为0,说明样本在这个特征上基本没有差异,这个特征对于样本区分基本没用
2、特征选择:考虑特征与目标的相关性,优先选择与目标相关性高的特征!
3、根据方差选择特征:计算各个特征的方差,选择方差大于阈值的特征
4、单变量特征选择:计算每个特征与y的相关性;对于回归问题或分类问题可以采用卡方检验的方式对特征进行检测
5、皮尔逊相关系数(适用于回归问题即y连续),简单实用
6、基于模型的特征融合方法:主成分分析,聚类,支持向量机,随机森林都可以作为筛选特征的方法
'''
print(df1.corr())
print('---')
print(df1.cov())
print(df1.describe())
sklearn 调包实现
'''
多元回归的变量选择:
在变量较少的情况下,全子集回归都要优于逐步回归;
但若是变量较多,全子集回归就会很费时间;
变量的自动选择是对模型选择的一种辅助方法,而不是直接方法;
缺陷:只能选出模型拟合度最高的模型,但是该模型是不是有意义,我们还需要结合真实场景进行选择;甚至模型的重建。
'''
from sklearn.model_selection import train_test_split
import numpy as np
from sklearn import datasets,linear_model
import pandas as pd
y=df1.iloc[:,0]
x=df1.iloc[:,[1,2,3,4]]
# 训练数据
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.25, random_state = 1)
regr = linear_model.LinearRegression()
regr.fit(x_train,y_train) #训练拟合参数
print('coefficients(b1,b2...):',regr.coef_)
print('intercept(b0):',regr.intercept_)
# 预测数据
y_pred = regr.predict(x_test)
print(y_pred)
# 查看模型得分
regr.score(x_test, y_test)
Out:
coefficients(b1,b2...): [-2.58276362e-04 9.39725239e-04 3.19754647e+00 1.03817588e+00]
intercept(b0): -15.518686092501014
[513.46916069 820.48073383 595.60053947 112.04429448 548.1450162
618.4632776 271.81001594 368.01305579 660.92674908 575.78325852
523.48195751 545.90176081 718.77749951 501.81849186 360.00269366
808.0881115 578.33083072]
Out[66]:
0.9981218281971582
最后,请关注我的数据分析专栏,已经超过1000+小伙伴关注啦数据分析zhuanlan.zhihu.com
python cox回归_数据分析|回归分析(RPython)相关推荐
- python svr回归_使用sklearn库中的SVR做回归分析
sklearn中的回归有多种方法,广义线性回归集中在linear_model库下,例如普通线性回归.Lasso.岭回归等:另外还有其他非线性回归方法,例如核svm.集成方法.贝叶斯回归.K近邻回归.决 ...
- python 套索回归_适用于python的自适应套索
python 套索回归 This is my second post on the series about penalized regression. In the first one we tal ...
- python svr回归_机器学习入门之机器学习之路:python支持向量机回归SVR 预测波士顿地区房价...
本文主要向大家介绍了机器学习入门之机器学习之路:python支持向量机回归SVR 预测波士顿地区房价,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助. 支持向量机的两种核函数模型进行预 ...
- r语言实现岭回归_数据分析中常见的七种回归分析以及R语言实现(五)
套索回归,这个回归模型有些新颖,要写个详细的介绍预计要写好长,受限于水平,就写个普及文,所以这里就稍微简答的介绍一下: 为什么我们老说多重共线性呢?那是,因为我们在研究数据的时候总会不行制止的泛起多维 ...
- python sklearn 归一化_数据分析|Python特征工程(5)
OX00 引言 数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已.由此可见,特征工程在机器学习中占有相当重要的地位.在实际应用当中,可以说特征工程是机器学习成功的关键. 特征做不好,调 ...
- python 文件格式转换_数据分析:基于Python的自定义文件格式转换系统
( 白宁超 2018年7月16日14:47:41 ) 导读:随着大数据的快速发展,自然语言处理.数据挖掘.机器学习技术应用愈加广泛.针对大数据的预处理工作是一项庞杂.棘手的工作.首先数据采集和存储,尤 ...
- python 求均值_数据分析:寻找Python最优计算性能
1.场景描述 在数据统计分析过程中,求累计值(总和)是最常用的统计指标之一,市面上的各种流行数据库均支持的查询方式基本如下: select sum(c) from table_name; 当数据量在小 ...
- python医学应用_数据分析工具鄙视链:Python、R语言是老大,Excel只能称小弟?
最新行业报告 2020数据分析.商业分析行业报告工作岗位与职能.薪资对比.热招公司等多方面详细解读帮助你一网打尽,斩获心仪Offer! 扫码回复[数据分析 0]立即领取 History语言发展史ABC ...
- python支持向量机回归_机器学习实战-支持向量机原理、Python实现和可视化(分类)...
支持向量机(SVM)广泛应用于模式分类和非线性回归领域. SVM算法的原始形式由Vladimir N.Vapnik和Alexey Ya提出.自从那以后,SVM已经被巨大地改变以成功地用于许多现实世界问 ...
最新文章
- math range error
- MySQL索引使用方法和性能优化
- 项目经理的十二条规则
- HTML5和Intersection Observer的响应式图像优化简介
- 函数节流你应该知道的那点事
- 使用ps制作旧羊皮纸
- 【渝粤教育】国家开放大学2018年秋季 0321-21T学前心理学 参考试题
- 一套完整的 Java 线上故障排查技巧,建议收藏!
- uploadify上传文件Firefox浏览器上传失败解决方法
- linux怎么快平台,Linux快速构建LAMP网站平台
- 元宇宙价值链解读:元宇宙现实体系映射对未来的影响
- python八大排序算法_Python实现八大排序算法
- Nginx配置多个二级域名和多个CA证书
- ffmpeg提取音频数据
- [2]十道算法题【Java实现】
- [MacOS] 出现 Permission denied 解决办法
- matlab 显示高光谱,高光谱图像显示问题
- 正念的奇迹 - 喧嚣的世界中获取安宁
- 【学习笔记】元宇宙:虚实相生的网络世界
- 何谓三十而立 四十不惑 五十知天命 六十知耳顺?