使用OLS摘要解释线性回归的结果
下面是一个回归过程,用于拟合收入和教育情况
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sms
import statsmodels.api as sn
sdata = pd.read_csv('../input/traindatas/char7/Salary_Data.csv')
print(sdata.head())n = sdata.shape[0]
x_sum = sdata.YearsExperience.sum()
y_sum = sdata.Salary.sum()
x_sum2 = sdata.YearsExperience.pow(2).sum()
x_y = sdata.YearsExperience * sdata.Salary
xy = x_y.sum()
b = (xy-(x_sum * y_sum)/n)/(x_sum2 -x_sum**2/n)
print("b= ",b,sep=" ")sms.lmplot(x= 'YearsExperience',y = "Salary",data=sdata)
plt.show()fit = sn.formula.ols("Salary~YearsExperience",data= sdata).fit()
print(fit.summary())
输出结果如下
OLS Regression Results
==============================================================================
Dep. Variable: Salary R-squared: 0.957
Model: OLS Adj. R-squared: 0.955
Method: Least Squares F-statistic: 622.5
Date: Sun, 02 May 2021 Prob (F-statistic): 1.14e-20
Time: 11:06:19 Log-Likelihood: -301.44
No. Observations: 30 AIC: 606.9
Df Residuals: 28 BIC: 609.7
Df Model: 1
Covariance Type: nonrobust
===================================================================================coef std err t P>|t| [0.025 0.975]
-----------------------------------------------------------------------------------
Intercept 2.579e+04 2273.053 11.347 0.000 2.11e+04 3.04e+04
YearsExperience 9449.9623 378.755 24.950 0.000 8674.119 1.02e+04
==============================================================================
Omnibus: 2.140 Durbin-Watson: 1.648
Prob(Omnibus): 0.343 Jarque-Bera (JB): 1.569
Skew: 0.363 Prob(JB): 0.456
Kurtosis: 2.147 Cond. No. 13.2
==============================================================================Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
第一部分
1、Dep. Variable:
因变量是一个将依赖于其他变量的变量。在此回归分析中,Y是我们的因变量,因为我们想分析X对Y的影响
2、 Model:
所述的方法普通最小二乘法(OLS)是最广泛使用的模型由于其效率。该模型给出了真实人口回归线的最佳近似值。
3、 No. Observations:
观察次数是我们样本的大小,
4、Df Residuals:
残差的自由度(Df),Df = N – K (N =样本数量(观察数), K =变量数+ 1)
5、 Df Model:
模型的Df = K – 1 = 2 – 1 = 1 (其中,K =变量数+ 1)
第二部分
1、Intercept :
常数项是回归线的截距。从回归线(eq…1)处,截距为2.579e+04。在回归中,我们忽略了一些对因变量没有太大影响的自变量,截距表明了这些遗漏变量的平均值和模型中存在的噪声。
2、coef(Coefficient term):
系数项表示X 单位变化时Y的变化,即,如果X上升1个单位,则Y上升9449.9623 。如果您熟悉导数,则可以将其视为Y相对于X的变化率。
3、 std err:
标准误差也称为标准偏差。标准误差显示这些参数的采样变异性。标准误差的计算公式为
截距项的标准误
系数项的标准误差:
σ2σ^2σ2是回归(SER)的标准误差
4、t
t –统计数据: 从理论上讲,我们假设误差项服从正态分布,因此参数b 1 和 b 2 也具有正态分布,并且在上面计算出了标准误差。
b1∼N(B1,σb12)b2∼N(B2,σb22)B1和B2在这里是b1和b2的均值。b1 ∼ N(B_1, σ_{b1}^2) \\ b2 ∼ N(B_2 , σ_{b2}^2) \\ B_1和B_2 在这里是b1和b2的均值。 b1∼N(B1,σb12)b2∼N(B2,σb22)B1和B2在这里是b1和b2的均值。
t –假设以下假设来计算统计量–
H0:B2=0(变量X对Y无影响)Ha:B2≠0(X对Y的影响很大)H_0 :B_2 = 0(变量X对Y无影响)\\ H_a :B_2 ≠0(X对Y的影响很大) H0:B2=0(变量X对Y无影响)Ha:B2=0(X对Y的影响很大)
5、P>|t|
当原假设成立拒绝原假设的概率
6、[0.025 0.975]
这个是置信区间,表示95%的可能结果落的范围
第三部分
1、 R-squared:
R –平方值: R2R^2R2是确定系数,它告诉我们自变量可以解释多少百分比的自变量。
Adj. R-squared:
如果在现有模型中,再加入一个“无关自变量”,则R-squared的值仍然会增加,但是,实质上,模型的拟合度并未增加;为了弥补R-squared的缺陷,提出了Adj. R-squared,它在R-squared的基础上,加入了一个“惩罚项”,当向现有模型加入一个“无关自变量”时,Adj. R-squared会给这个“无关自变量”一个惩罚,从而使得Adj. R-squared的值不一定增加,防止了“虚假提升信息的产生”
3、F-statistic:
用于完成模型的显著性检验,模型的显著性检验是指构成因变量的线性组合是否有效,具体检验步骤如下:
1)提出问题的原假设和备择假设:
原假设:模型的所有偏回归系数为零。
备择假设:模型的所有偏回归系数不全为零,即至少存在一个自变量可以构成因变量的线性组合。
2)构造F-statistic:
由于TSS=ESS+RSS, TSS不会随着模型的变化而变动,所以,ESS和RSS之间存在的严格的负相关关系。如果ESS达到最小,RSS则会最大,进而RSS与ESS的商也会达到最大,由此构造F-statistic。公式如下:
F=ESS/kRSS/(n−k−1)F= \frac {ESS/k}{RSS/(n-k-1)} F=RSS/(n−k−1)ESS/k
模型拟合得越好,F-statistic越大。
4、AIC:
赤池信息准则,含义为用最少的自变量达到最好的拟合效果
使用OLS摘要解释线性回归的结果相关推荐
- 如何解释线性回归、逻辑回归、softmax回归?
Reference: https://www.cnblogs.com/eilearn/p/8990073.html 回归是什么意思? 回归=预测,高尔顿使用最小二乘法研究父母与孩子身高时发现,孩子有回 ...
- 如何理解statsmodels.ols的输出结果?ols计算的线性回归结果以及手动计算的结果的对比
手动计算 def linegress(l_1,l_2): #求两列数据的线性回归参数import numpy as npfrom numpy.linalg import solvesumx = np. ...
- 回归分析法一元线性回归操作和解释
用Excel做回归分析的详细步骤 一.什么是回归分析法 "回归分析"是解析"注目变量"和"因于变量"并明确两者关系的统计方法.此时,我们把因 ...
- android 揭示动画_遗传编程揭示具有相互作用的多元线性回归
android 揭示动画 We all had some sort of experience with linear regression. It's one of the most used re ...
- OLS回归分析原理实战及结果解析-python3
OLS 回归 变量之间存在着相关关系,比如,人的身高和体重之间存在着关系,一般来说,人高一些,体重要重一些,身高和体重之间存在的是不确定性的相关关系.回归分析是研究相关关系的一种数学工具,它能帮助我们 ...
- python 混淆矩阵 画图_【Python-机器学习】sciki-learn/pandas与OLS求解
引言:本文是<Python与机器学习应用--经济学视角>专栏的第一篇文章.正如专栏题目所示,笔者在介绍主流的机器学习算法的时候,会基于本人Stata/R语言以及经济学/计量经济学的背景进行 ...
- 多元线性回归算法预测房价【人工智能】
目录 一.理论知识 二.Excel多元线性回归 1.数据集 2.数据分析 三.借助Sklearn库实现多元线性回归 1.基础包与数据导入 2.变量探索 3.分析数据 4.建立线性回归模型 5.Skle ...
- 机器学习(二)多元线性回归算法预测房价
机器学习(二)多元线性回归算法预测房价 本篇文章已作为重庆交通大学19级微课<机器视觉>大作业提交,提前声明,避免抄袭误会 "garbage in garbage out&quo ...
- 【机器学习】机器学习之多元线性回归
目录 一.多元线性回归基础理论 二.案例分析 三.数据预处理 1.错误数据清洗 2.非数值型数据转换 四.使用Excel实现回归 1.回归实现 2.回归分析 五.使用代码实现回归 1. 数据预处理 2 ...
最新文章
- 又一位!26岁当上985博导,这才是乘风破浪的姐姐!
- 5.10 程序示例--模型选择-机器学习笔记-斯坦福吴恩达教授
- python:去重(list,dataframe)
- intellij运行多个工程
- 被黑客盯上了…数据都给打包带走了…
- android 活动销毁不了,即使活动已经销毁,AsyncTask也不会停止
- php缓存注入,利用Thinkphp 5缓存漏洞实现前台Getshell
- 如何处理db2中文不显示
- 论文浅尝 | WWW2022 - “知识提示”之知识约束预训练微调
- c语言编程输出数组元素之和,C语言 输出一个数组中,所有元素之和为0的子序列...
- 百度网盘空间调整:这类用户2TB变100GB!
- mysql语句错误怎么查找_为什么我的mysql语句一直报错,找不到错误,望各位大佬指点一番...
- 网络共享服务器 samba
- python 时间格式按年月分组_python – 按时间间隔对消息进行分组
- CSS 相对定位与绝对定位
- 博时基金:DevOps重塑IT价值助力金融科技创新发展
- 美容院预约管理系统管理员端用例测试
- UVA12304 2D Geometry 110 in 1!
- iOS开发UI基础—09UIImageView动画示例之汤姆猫程序
- 免费网站翻译整个文档并保留原格式
热门文章
- 学顶教育:初级会计师领取证书有关事项
- 3分钟了解硬件产品设计流程
- html input单选样式,input单选框美化——自定义样式
- org.codehaus.plexus.component.repository.exception.ComponentLookupException 错误
- windows下打开 .pages文件?
- GLSL 详解(基础篇)
- 价值连城的macd战法
- 滦平一中2021年高考成绩查询,恭喜 | 2019年高考清华北大榜,河北学子再创辉煌……...
- MySQL系统学习笔记
- 纯js 实现简单聊天室,可发送表情、图片、发送消息时间