Stata 回归结果详解
目录
- 一、数据信息
- 二、指标
- 1.上半部分
- 2.下半部分
- 三、详细解释
- SSM - 模型平方和
- SSR - 残差平方和
- SST - 总平方和
- R-squared - R方 - 拟合系数
- Adj R-squared - 调整后的拟合系数
- df - 自由度
- MS - 均方差
- F - 总体显著性检验
- Prob > F - P值
- Root MSE
- Coef.
- Std. Err.
- t
- P > | t |
- 95% Conf. Interval
一、数据信息
使用stata自带的auto数据,
被解释变量(因变量):price(价格)
解释变量(自变量):mpg(里程)、rep78(1978年后的修理记录)、weight(重量)、length(长度)、foreign(本土/国外品牌)
回归结果分两部分,上半部分为回归结果的总体描述信息,下半部分为具体变量信息。
二、指标
1.上半部分
指标 | 英文 | 名称 | 解释 |
---|---|---|---|
SS | sum of squares | 平方和 | |
df | degrees of freedom | 自由度 | |
MS | mean square | 均方差 | |
Model(SSM) | sum of squares model | 模型平方和 | 衡量预测值的离散程度 |
Residual(SSR) | sum of squares residual | 残差平方和 | 衡量预测值与真实值的偏差程度 |
Total(SST) | sum of squares total | 总平方和 | 衡量真实数据的离散程度 |
Number of obs | 观测值数量 | 观测值数量 | |
F(a,b) | F值 | 检验系数不为0的概率 | |
Prob > F | P值 | 1%、5%、10%水平上显著 | |
R-squared | 拟合系数 | 表示模型的拟合程度 | |
Adj R-squared | 调整后的拟合系数 | 更精确的表示模型的拟合程度 | |
Root MSE | Root Mean square of error | 均误差平方根 | 衡量模型中的误差项的大小 |
2.下半部分
指标 | 英文名 | 中文名 | 解释 |
---|---|---|---|
Coefficient | 系数 | β | |
Std. err. | The standard error of the coefficient | 回归系数标准误 | 估计系数的波动水平 |
t | t值 | 检验系数不为0的概率 | |
p > [t] | P值 | 1%、5%、10%水平上显著 | |
[95% conf. interval] | confidence interval | 置信区间 | 回归系数取值范围,该范围有效率是95% |
三、详细解释
SSM - 模型平方和
每一个预测值与平均值之间距离的平方之和
SSM越大越好
SSR - 残差平方和
每一个真实值与预测值之间距离的平方之和,即误差项的平方和
SSR越小越好
SST - 总平方和
每一个真实值与平均值之间距离的平方之和,用于衡量真实值的离散程度
SST = SSM + SSR ,即【总平方和=模型平方和+残差平方和】
R-squared - R方 - 拟合系数
拟合系数表示模型能解释的数据波动占总体波动的百分比,表示拟合程度
R方越高,表示模型的拟合程度越高,回归预测越准确
R方的值在0到1之间,具体的大小并无要求,需要根据不同的领域具体判断,在某些领域,10%-30%是合理的;而在某些领域甚至达到50%才是合理。
Adj R-squared - 调整后的拟合系数
R-squared无法控制变量的增加而导致过度拟合,Adj R-squared则在此基础上,引入了自变量的个数这一因素,以更加准确地评估模型的拟合效果。
在多元线性回归模型中,当自变量的数量增加时,R-squared也会随之增加。但是,当自变量的数量增加时,也容易出现过拟合(overfitting)现象,导致模型的预测能力下降。因此,为了避免过拟合,我们需要使用Adj R-squared对R-squared进行修正。Adj R-squared可以更精确地反映自变量对因变量的解释程度,避免了因自变量数量增加而导致的过拟合问题,是多元线性回归模型中一个比较重要的评估指标。
df - 自由度
自由度是表示能够自由变动的变量的个数
例如:有3个变量a、b、c,加入限制条件 a + b + c = 100,则a和b任意取一个值后,c无法自由取值,即df=2。
在本文章的数据中,观测值 n= 69,自由度 df = 69 - 1 = 68
本章数据中,假设观测值个数为n,自变量个数为k,则:
df_Total = n - 1
df_Model = k (不是k-1,因为模型中有常数项β0,所以模型的自由度就是自变量个数)
df_Residual = n - k -1 = 69 - 5 - 1 = 63
MS - 均方差
MS = SS / df
简单理解就是平方和的平均数
F - 总体显著性检验
F = MS_Model / MS_Residual
原假设H0:所有系数β均为0
备择假设H1:系数β不全为0
F值越大越好
Prob > F - P值
P值表示在在原假设成立的情况下,能够得到F值的概率,通常有模型在1%、5%、10%水平下拒绝原假设,从而认为自变量对因变量影响的显著水平,也可以说模型在1%、5%、10%水平上显著。
P值由F值查表得出
P值指的是假设检验中得到的显著性水平,其英文单词为"p-value"。其中,p表示概率(probability),value则代表一个数值,即显著性水平。
P值表示在在原假设成立的情况下,能够得到F值的概率,通常有模型在1%、5%、10%水平下拒绝原假设,从而认为自变量对因变量影响的显著水平,也可以说模型在1%、5%、10%水平上显著。
当 P < 0.1 时,模型在10%水平上显著。
当 P < 0.05 时,模型在5%水平上显著。
当 P < 0.01 时,模型在1%水平上显著。
P值越小越好
Root MSE
衡量模型中的误差项的大小,Root MSE越大,误差越大
Root MSE越小越好
Coef.
回归系数,其中_cons表示常数项
例:连续变量和0-1变量的解释不用,本文数据中:
车辆重量weight为连续变量,weight每增加一千克,价格price将增加6.006738美元。
是否为外国车辆foreign为0-1变量,当foreigh=1时,价格price将增加3303.213美元。
Std. Err.
衡量估计系数的波动水平
t
t = Coef. / Std. Err.
t检验中的字母t来源于英文单词"t-distribution",也就是t分布。T分布是一种概率分布函数,是一类常用于小样本假设检验的概率分布。T分布的形态与自由度有关,当自由度越大时,T分布越趋近于标准正态分布。在t检验中,t值的计算需要用到样本均值、标准差和样本量,然后再根据自由度和置信水平查找t分布表,得到检验的p值,以此来判断是否拒绝零假设。
越大越好
P > | t |
仍是P值,根据t值查表获得
当 | t | > 1.65 或 P < 0.1 时,模型在10%水平上显著,标记*。
当 | t | > 1.96 或 P < 0.05 时,模型在5%水平上显著,标记**。
当 | t | > 2.58 或 P < 0.01 时,模型在1%水平上显著,标记***。
越小越好
95% Conf. Interval
95%置信区间,表示回归系数的取值范围,该范围有效的概率是95%
Stata 回归结果详解相关推荐
- kmeans python interation flag_机器学习经典算法-logistic回归代码详解
一.算法简要 我们希望有这么一种函数:接受输入然后预测出类别,这样用于分类.这里,用到了数学中的sigmoid函数,sigmoid函数的具体表达式和函数图象如下: 可以较为清楚的看到,当输入的x小于0 ...
- 逻辑回归原理详解(附手写推导)
目录 一.逻辑推导 二.手写推算逻辑回归运算步骤 1.梯度下降法 2.最大似然估计法 三.用梯度下降法求损失函数最小值 四.代码部分 一.逻辑推导 因部分内容与作者之前所发布的文章有所重复,故只对新的 ...
- ESL3.5 学习笔记(主成分回归,偏最小二乘回归步骤详解)
3.5 运用派生输入方向的方法 这是一篇有关<统计学习基础>,原书名The Elements of Statistical Learning的学习笔记,该书学习难度较高,有很棒的学者将其翻 ...
- 逻辑回归模型详解(Logistic Regression)
目录 广义线性模型 极大似然法 逻辑回归的假设函数 逻辑回归的损失函数 交叉熵损失函数 为什么LR模型损失函数使用交叉熵不用均方差 交叉熵损失函数的数学原理 交叉熵损失函数的直观理解 交叉熵简介 对数 ...
- 逻辑斯蒂回归算法详解
逻辑斯蒂回归算法可用于分类问题,其本质是在线性回归的算法上用sigmoid函数进行模型变换,使得目标值介于0-1之间.本文用于对逻辑斯蒂回归算法(Logistics Regression)进行详细讲述 ...
- python 决策树回归参数_python决策树之CART分类回归树详解
{"moduleinfo":{"card_count":[{"count_phone":1,"count":1}],&q ...
- 图解机器学习算法(6) | 决策树模型详解(机器学习通关指南·完结)
作者:韩信子@ShowMeAI 教程地址:https://www.showmeai.tech/tutorials/34 本文地址:https://www.showmeai.tech/article-d ...
- 图解机器学习算法(13) | 聚类算法详解(机器学习通关指南·完结)
作者:韩信子@ShowMeAI 教程地址:https://www.showmeai.tech/tutorials/34 本文地址:https://www.showmeai.tech/article-d ...
- DeepLearning tutorial(1)Softmax回归原理简介+代码详解
FROM: http://blog.csdn.net/u012162613/article/details/43157801 DeepLearning tutorial(1)Softmax回归原理简介 ...
最新文章
- string [线段树优化桶排]
- JAVA编译时出现的错误提示
- 金蝶k3单据编码规则_金蝶K3存货跌价案例教程
- php如何避免时间重复,如何避免/停止php和html的重复插入?
- git的创建分支与合并分支(5)
- Hive 中 insert into 与with as连用
- 多维数组和矩阵----子数组最大累加和
- gcc离线安装 ubuntu 不用编译_「ubuntu安装gcc」ubuntu18.04安装gcc详细步骤(附问题集) - seo实验室...
- java远古时代-驯龙骑士破解版_驯龙骑士apk下载_驯龙骑士安卓游戏v1.12.0-游迅网...
- 高校如何优雅的使用Ipv6--抱着道长的大腿
- 简单破解 Sencha Architect 2.2 (ExtJs Designer) - 李路平 - 博客园
- 详细介绍 Yolov5 转 ONNX模型 + 使用ONNX Runtime 的 Python 部署(包含官方文档的介绍)
- 从万物归零到虚拟与现实交错
- 前沿关注 | 5G和边缘计算将如何改变AR和VR?
- Android Results API
- bootstrap-table 添加行保留原数据
- Fegin调用时出现JSON parse error:can not deserialize instance of ...
- .net core生成PDF文件,iTextSharp使用
- 艾永亮超级产品:企业如何利用同理心做出好产品?
- Java白皮书关键词总结