R语言summary.lm信息进一步挖掘

废话不多说,直接上例子
(由于summary出来的结果是有截断的,以下比较会有一定误差,要精确的话可以自己从model里面取出相应系数)

> data("faithful")
> y=faithful$waiting
> x=faithful$eruptions
> model=lm(y~x,faithful)
> summary(model)Call:
lm(formula = y ~ x, data = faithful)Residuals:Min       1Q   Median       3Q      Max
-12.0796  -4.4831   0.2122   3.9246  15.9719 Coefficients:Estimate Std. Error t value Pr(>|t|)
(Intercept)  33.4744     1.1549   28.98   <2e-16 ***
x            10.7296     0.3148   34.09   <2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 5.914 on 270 degrees of freedom
Multiple R-squared:  0.8115,    Adjusted R-squared:  0.8108
F-statistic:  1162 on 1 and 270 DF,  p-value: < 2.2e-16
  1. 计算RSS
    实际上Residual standard error 中的5.914为 σ ^ \hat\sigma σ^(注意没有平方)
    由 RSS=(n-p) σ ^ 2 \hat\sigma^2 σ^2 知,RSS=(5.914)^2*270=·9443.387
> y_pre=predict(model)
> sum((y-y_pre)^2)
[1] 9443.387
> (5.914)^2*270
[1] 9443.357
  1. 计算 SS 回 \small{回} 回 和 TSS (SS 总 \small{总} 总)

    由 R 2 = S S 回 T S S R^2=\frac{SS\small{回}}{TSS} R2=TSSSS回​ 和 T S S = S S 回 + R S S TSS=SS\small{回}+RSS TSS=SS回+RSS 得,

    T S S = R S S 1 − R 2 , S S 回 = T S S − R S S TSS =\frac{RSS}{1-R^2},~SS\small{回}=TSS-RSS TSS=1−R2RSS​, SS回=TSS−RSS

> sum((y-mean(y))^2)
[1] 50087.12
> RSS=sum((y-y_pre)^2)
> RSS/(1-0.8115)
[1] 50097.54

(注意不要写成 1-0.8115^2,本身就是 R 2 R^2 R2,无须再平方)

  1. 样本量 n 的确定

    由总体的显著性检验,其检验统计量形式为 F ( p − 1 , n − p ) F_{(p-1,n-p)} F(p−1,n−p)​,因此
    n=(p-1)+(n-p)+1=1+270+1=272

  2. c i i : ( X T X ) − 1 = ( c i j ) p × p c_{ii}:(X^TX)^{-1}=(c_{ij})_{p\times p} cii​:(XTX)−1=(cij​)p×p​ 的计算

    可以利用回归系数的标准误或 t值计算

    我们有 C o v ( β ^ ) = σ ^ 2 ( X T X ) − 1 Cov(\hat\beta)=\hat\sigma^2(X^TX)^{-1} Cov(β^​)=σ^2(XTX)−1,而 σ ^ \hat\sigma σ^我们是知道的,假如我们算 c 22 c_{22} c22​

    就有: c 22 = 0.314 8 2 / ( 5.91 4 2 ) c_{22}=0.3148^2/(5.914^2) c22​=0.31482/(5.9142)

> x_temp=c(1:length(x))*0+1
> x_1=matrix(c(x_temp,x),ncol=2)#构造第一列全为1的X阵
> solve(t(x_1)%*%x_1)[,1]         [,2]
[1,]  0.038133338 -0.009879303
[2,] -0.009879303  0.002832545
> 0.3148^2/(5.914^2)
[1] 0.002833393

或者利用t值: t i = β ^ i c i i σ ^ t_i=\frac{\hat\beta_i}{\sqrt{c_{ii}}\hat\sigma} ti​=cii​ ​σ^β^​i​​, c 22 = ( β ^ 2 σ ^ t i ) 2 = ( 10.7296 5.914 ∗ 34.09 ) 2 c_{22}=(\frac{\hat\beta_2}{\hat\sigma t_i})^2=(\frac{10.7296}{5.914*34.09})^2 c22​=(σ^ti​β^​2​​)2=(5.914∗34.0910.7296​)2

> (10.7296/(5.914*34.09))^2
[1] 0.002832373
  1. p值与 ⋆ \star ⋆

    p值的直观理解是拒绝原假设的 α \alpha α的下确界,p值越小,我们的 α \alpha α越可能大过p值,这时候我们就要拒绝原假设,但我们对回归方程的原假设都是某某为0,拒绝它即认为某某回归系数显著的不为0.
    最后一行的p值是对整体显著性检验的p值,p值很小我们认为该回归方程通过整体性检验。

  2. Adjusted R-squared 会比 R-squared 略小

> TSS=sum((y-mean(y))^2)
> y_pre=predict.lm(model)
> RSS=sum((y-y_pre)^2)
> > 1-(RSS/270)/(TSS/271)
[1] 0.8107625

R语言summary.lm信息进一步挖掘相关推荐

  1. R语言使用lm构建线性回归模型、并将目标变量对数化实战:可视化模型预测输出与实际值对比图、可视化模型的残差、模型系数(coefficient)、模型总结信息(summary)、残差总结信息

    R语言使用lm构建线性回归模型.并将目标变量对数化(log10)实战:可视化模型预测输出与实际值对比图.可视化模型的残差.模型系数(coefficient).模型总结信息(summary).残差总结信 ...

  2. R语言使用lm构建线性回归模型、并将目标变量对数化实战:模型训练集和测试集的残差总结信息(residiual summary)、模型训练(测试)集自由度计算、模型训练(测试)集残差标准误计算

    R语言使用lm构建线性回归模型.并将目标变量对数化实战:模型训练集和测试集的残差总结信息(residiual summary).模型训练(测试)集自由度计算.模型训练(测试)集残差标准误计算(Resi ...

  3. R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘)、使用subset函数进一步筛选生成的规则去除左侧规则中的冗余信息、获取更独特的有新意的关联规则

    R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘).使用subset函数进一步筛选生成的规则去除左侧规则中的冗余信息.获取更独特的有新意的关联规则 目录

  4. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、使用attributes函数查看线性回归模型的属性信息、获取模型拟合对应的残差值residuals

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.使用attributes函数查看线性回归模型的属性信息.获取模型拟合对应的残差值residuals 目录

  5. R语言使用lm函数构建分层线性回归模型(添加分组变量构建分层线性回归模型)、使用coef函数提取分层线性回归模型的系数及截距、计算第一个分组的间距和斜率信息(第一个分组,对照组)

    R语言使用lm函数构建分层线性回归模型(添加分组变量构建分层线性回归模型).使用coef函数提取分层线性回归模型的系数及截距.计算第一个分组的间距和斜率信息(第一个分组,对照组) 目录

  6. R语言使用lm函数构建分组线性回归模型、构建具有交互项的线性回归模型、使用coef函数获取模型系数及截距信息

    ↵ R语言使用lm函数构建分组线性回归模型.构建具有交互项的线性回归模型.使用coef函数获取模型系数及截距信息 目录

  7. R语言使用lm函数拟合多元线性回归模型、假定预测变量没有交互作用(Multiple linear regression)

    R语言使用lm函数拟合多元线性回归模型.假定预测变量没有交互作用(Multiple linear regression) 目录

  8. R语言使用lm构建线性回归模型、并将目标变量对数化(log10)实战:可视化模型预测输出与实际值对比图、可视化模型的残差、模型预测中系统误差的一个例子 、自定义函数计算R方指标和均方根误差RMSE

    R语言使用lm构建线性回归模型.并将目标变量对数化(log10)实战:可视化模型预测输出与实际值对比图.可视化模型的残差.模型预测中系统误差的一个例子 .自定义函数计算R方指标和均方根误差RMSE 目 ...

  9. R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘)、查看限制了规则的右侧之后挖掘到的规则(置信度排序,只查看左侧即可)

    R语言apriori算法进行关联规则挖掘(限制规则的左侧或者右侧的内容进行具体规则挖掘).查看限制了规则的右侧之后挖掘到的规则(置信度排序,只查看左侧即可) 目录

最新文章

  1. 学习CAS实现SSO单点登录
  2. Geany包含中文运行报错解决办法
  3. 洛谷P2286 [HNOI2004]宠物收养所 [STL,平衡树]
  4. mysql分区方案的研究
  5. 看个电子书都会被黑客攻击,这是上面情况?
  6. linux之用2张图片描述vim常见命令
  7. 手写springmvc
  8. 特征工程到底是什么?2019百度实习生招聘试题之一
  9. C++开发工程师的薪资和未来发展
  10. mybatis--常见的错误
  11. 【图像修复】基于matlab GUI中值+均值+维纳+最小平方图像恢复【含Matlab源码 838期】
  12. 基于matlab的神经网络设计,深度神经网络代码matlab
  13. 74.android 简单的跳转到小米安全中心首页和小米安全中心的权限管理
  14. 中国科学数学模板如何在CTEX和texstudio中顺利运行
  15. JavaScript判断一个时间点在不在某段时间段范围之内
  16. Spring: error at ::0 can‘t find referenced pointcut的错误并解决
  17. 使用flink迁移数据
  18. 共享池 shared pool
  19. 如何在 Java 应用程序中设置 HicariCP 连接池
  20. 计算机培训微课设计与实现,微课设计与制作

热门文章

  1. 老人们已经看到了生活的尽头,而你还要在这个操蛋的世界里活很久
  2. 解决ubuntu安装完搜狗输入法只能使用英文,无法输入中文
  3. Linux用户和组:linux用户和组及权限讲解
  4. 故宫景点功课7:文华殿院落下
  5. 三维QLC NAND闪存的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
  6. oracle 闪存查询,【oracle相关】关于数据闪存恢复的说明
  7. 计算机重置网络后,win10重置网络后以太网和wlan状态都显示..._网络编辑_帮考网...
  8. 软考高级系统架构设计师系列论文十九:论软件设计模式及其应用
  9. 2022QS亚洲大学排名出炉!183所中国高校上榜,北大领先国内高校
  10. 人工智能大报告(FlappyBird游戏AI训练)作业练习