R语言summary.lm信息进一步挖掘
R语言summary.lm信息进一步挖掘
废话不多说,直接上例子
(由于summary出来的结果是有截断的,以下比较会有一定误差,要精确的话可以自己从model里面取出相应系数)
> data("faithful")
> y=faithful$waiting
> x=faithful$eruptions
> model=lm(y~x,faithful)
> summary(model)Call:
lm(formula = y ~ x, data = faithful)Residuals:Min 1Q Median 3Q Max
-12.0796 -4.4831 0.2122 3.9246 15.9719 Coefficients:Estimate Std. Error t value Pr(>|t|)
(Intercept) 33.4744 1.1549 28.98 <2e-16 ***
x 10.7296 0.3148 34.09 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 5.914 on 270 degrees of freedom
Multiple R-squared: 0.8115, Adjusted R-squared: 0.8108
F-statistic: 1162 on 1 and 270 DF, p-value: < 2.2e-16
- 计算RSS
实际上Residual standard error 中的5.914为 σ ^ \hat\sigma σ^(注意没有平方)
由 RSS=(n-p) σ ^ 2 \hat\sigma^2 σ^2 知,RSS=(5.914)^2*270=·9443.387
> y_pre=predict(model)
> sum((y-y_pre)^2)
[1] 9443.387
> (5.914)^2*270
[1] 9443.357
计算 SS 回 \small{回} 回 和 TSS (SS 总 \small{总} 总)
由 R 2 = S S 回 T S S R^2=\frac{SS\small{回}}{TSS} R2=TSSSS回 和 T S S = S S 回 + R S S TSS=SS\small{回}+RSS TSS=SS回+RSS 得,
T S S = R S S 1 − R 2 , S S 回 = T S S − R S S TSS =\frac{RSS}{1-R^2},~SS\small{回}=TSS-RSS TSS=1−R2RSS, SS回=TSS−RSS
> sum((y-mean(y))^2)
[1] 50087.12
> RSS=sum((y-y_pre)^2)
> RSS/(1-0.8115)
[1] 50097.54
(注意不要写成 1-0.8115^2,本身就是 R 2 R^2 R2,无须再平方)
样本量 n 的确定
由总体的显著性检验,其检验统计量形式为 F ( p − 1 , n − p ) F_{(p-1,n-p)} F(p−1,n−p),因此
n=(p-1)+(n-p)+1=1+270+1=272c i i : ( X T X ) − 1 = ( c i j ) p × p c_{ii}:(X^TX)^{-1}=(c_{ij})_{p\times p} cii:(XTX)−1=(cij)p×p 的计算
可以利用回归系数的标准误或 t值计算
我们有 C o v ( β ^ ) = σ ^ 2 ( X T X ) − 1 Cov(\hat\beta)=\hat\sigma^2(X^TX)^{-1} Cov(β^)=σ^2(XTX)−1,而 σ ^ \hat\sigma σ^我们是知道的,假如我们算 c 22 c_{22} c22
就有: c 22 = 0.314 8 2 / ( 5.91 4 2 ) c_{22}=0.3148^2/(5.914^2) c22=0.31482/(5.9142)
> x_temp=c(1:length(x))*0+1
> x_1=matrix(c(x_temp,x),ncol=2)#构造第一列全为1的X阵
> solve(t(x_1)%*%x_1)[,1] [,2]
[1,] 0.038133338 -0.009879303
[2,] -0.009879303 0.002832545
> 0.3148^2/(5.914^2)
[1] 0.002833393
或者利用t值: t i = β ^ i c i i σ ^ t_i=\frac{\hat\beta_i}{\sqrt{c_{ii}}\hat\sigma} ti=cii σ^β^i, c 22 = ( β ^ 2 σ ^ t i ) 2 = ( 10.7296 5.914 ∗ 34.09 ) 2 c_{22}=(\frac{\hat\beta_2}{\hat\sigma t_i})^2=(\frac{10.7296}{5.914*34.09})^2 c22=(σ^tiβ^2)2=(5.914∗34.0910.7296)2
> (10.7296/(5.914*34.09))^2
[1] 0.002832373
p值与 ⋆ \star ⋆
p值的直观理解是拒绝原假设的 α \alpha α的下确界,p值越小,我们的 α \alpha α越可能大过p值,这时候我们就要拒绝原假设,但我们对回归方程的原假设都是某某为0,拒绝它即认为某某回归系数显著的不为0.
最后一行的p值是对整体显著性检验的p值,p值很小我们认为该回归方程通过整体性检验。Adjusted R-squared 会比 R-squared 略小
> TSS=sum((y-mean(y))^2)
> y_pre=predict.lm(model)
> RSS=sum((y-y_pre)^2)
> > 1-(RSS/270)/(TSS/271)
[1] 0.8107625
R语言summary.lm信息进一步挖掘相关推荐
- R语言使用lm构建线性回归模型、并将目标变量对数化实战:可视化模型预测输出与实际值对比图、可视化模型的残差、模型系数(coefficient)、模型总结信息(summary)、残差总结信息
R语言使用lm构建线性回归模型.并将目标变量对数化(log10)实战:可视化模型预测输出与实际值对比图.可视化模型的残差.模型系数(coefficient).模型总结信息(summary).残差总结信 ...
- R语言使用lm构建线性回归模型、并将目标变量对数化实战:模型训练集和测试集的残差总结信息(residiual summary)、模型训练(测试)集自由度计算、模型训练(测试)集残差标准误计算
R语言使用lm构建线性回归模型.并将目标变量对数化实战:模型训练集和测试集的残差总结信息(residiual summary).模型训练(测试)集自由度计算.模型训练(测试)集残差标准误计算(Resi ...
- R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘)、使用subset函数进一步筛选生成的规则去除左侧规则中的冗余信息、获取更独特的有新意的关联规则
R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘).使用subset函数进一步筛选生成的规则去除左侧规则中的冗余信息.获取更独特的有新意的关联规则 目录
- R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、使用attributes函数查看线性回归模型的属性信息、获取模型拟合对应的残差值residuals
R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.使用attributes函数查看线性回归模型的属性信息.获取模型拟合对应的残差值residuals 目录
- R语言使用lm函数构建分层线性回归模型(添加分组变量构建分层线性回归模型)、使用coef函数提取分层线性回归模型的系数及截距、计算第一个分组的间距和斜率信息(第一个分组,对照组)
R语言使用lm函数构建分层线性回归模型(添加分组变量构建分层线性回归模型).使用coef函数提取分层线性回归模型的系数及截距.计算第一个分组的间距和斜率信息(第一个分组,对照组) 目录
- R语言使用lm函数构建分组线性回归模型、构建具有交互项的线性回归模型、使用coef函数获取模型系数及截距信息
↵ R语言使用lm函数构建分组线性回归模型.构建具有交互项的线性回归模型.使用coef函数获取模型系数及截距信息 目录
- R语言使用lm函数拟合多元线性回归模型、假定预测变量没有交互作用(Multiple linear regression)
R语言使用lm函数拟合多元线性回归模型.假定预测变量没有交互作用(Multiple linear regression) 目录
- R语言使用lm构建线性回归模型、并将目标变量对数化(log10)实战:可视化模型预测输出与实际值对比图、可视化模型的残差、模型预测中系统误差的一个例子 、自定义函数计算R方指标和均方根误差RMSE
R语言使用lm构建线性回归模型.并将目标变量对数化(log10)实战:可视化模型预测输出与实际值对比图.可视化模型的残差.模型预测中系统误差的一个例子 .自定义函数计算R方指标和均方根误差RMSE 目 ...
- R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘)、查看限制了规则的右侧之后挖掘到的规则(置信度排序,只查看左侧即可)
R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘).查看限制了规则的右侧之后挖掘到的规则(置信度排序,只查看左侧即可) 目录
最新文章
- 学习CAS实现SSO单点登录
- Geany包含中文运行报错解决办法
- 洛谷P2286 [HNOI2004]宠物收养所 [STL,平衡树]
- mysql分区方案的研究
- 看个电子书都会被黑客攻击,这是上面情况?
- linux之用2张图片描述vim常见命令
- 手写springmvc
- 特征工程到底是什么?2019百度实习生招聘试题之一
- C++开发工程师的薪资和未来发展
- mybatis--常见的错误
- 【图像修复】基于matlab GUI中值+均值+维纳+最小平方图像恢复【含Matlab源码 838期】
- 基于matlab的神经网络设计,深度神经网络代码matlab
- 74.android 简单的跳转到小米安全中心首页和小米安全中心的权限管理
- 中国科学数学模板如何在CTEX和texstudio中顺利运行
- JavaScript判断一个时间点在不在某段时间段范围之内
- Spring: error at ::0 can‘t find referenced pointcut的错误并解决
- 使用flink迁移数据
- 共享池 shared pool
- 如何在 Java 应用程序中设置 HicariCP 连接池
- 计算机培训微课设计与实现,微课设计与制作
热门文章
- 老人们已经看到了生活的尽头,而你还要在这个操蛋的世界里活很久
- 解决ubuntu安装完搜狗输入法只能使用英文,无法输入中文
- Linux用户和组:linux用户和组及权限讲解
- 故宫景点功课7:文华殿院落下
- 三维QLC NAND闪存的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
- oracle 闪存查询,【oracle相关】关于数据闪存恢复的说明
- 计算机重置网络后,win10重置网络后以太网和wlan状态都显示..._网络编辑_帮考网...
- 软考高级系统架构设计师系列论文十九:论软件设计模式及其应用
- 2022QS亚洲大学排名出炉!183所中国高校上榜,北大领先国内高校
- 人工智能大报告(FlappyBird游戏AI训练)作业练习