逐步回归(Stepwise Regression)

逐步回归主要解决的是多变量共线性问题,也就是不是线性无关的关系,它是基于变量解释性来进行特征提取的一种回归方法。

逐步回归的主要做法有三种:

(一)Forward selection:将自变量逐个引入模型,引入一个自变量后要查看该变量的引入是否使得模型发生显著性变化(F检验),如果发生了显著性变化,那么则将该变量引入模型中,否则忽略该变量,直至所有变量都进行了考虑。即将变量按照贡献度从大到小排列,依次加入。

步骤:

(1)建立每个自变量与因变量的一元回归方程:

(2)分别计算m个一元回归方程中的回归系数的检验统计量F,并求出最大值为

,停止筛选,否则将选入变量集,此时可以将看做,进入步骤(3)

(3)分别将自变量组与因变量建立二元回归方程,(此时是步骤2中的)计算方程中的回归系数检验统计量F,取,若则停止筛选,否则将选入变量集,此时将看做....如此迭代直到自变量的最大的F值小于临界值,此时回归方程就是最优的回归方程。

特点:自变量一旦选入,则永远保存在模型中;不能反映自变量选进模型后的模型本身的变化情况。

(2)Backward elimination:与Forward selection选择相反,在这个方法中,将所有变量放入模型,然后尝试将某一变量进行剔除,查看剔除后对整个模型是否有显著性变化(F检验),如果没有显著性变化则剔除,若有则保留,直到留下所有对模型有显著性变化的因素。即将自变量按贡献度从小到大,依次剔除。

步骤:

(1)建立全部对因变量y的回归方程,对方程中的m个自变量进行F检验,取最小值为:,若,则没有自变量可剔除,此时回归方程就是最优的;否则剔除,在此时可另,进入步骤(2)

(2)建立与因变量y的回归方程,对方程中的回归系数进行F检验,取最小值,若,则无变量需要剔除,此时方程就是最优的,否则将剔除,此时设,...,一直迭代下去,直到各变量的回归系数F值均大于临界值,即方程中没有变量可以剔除为止,此时的回归方程就是最优的回归方程。

特点:自变量一旦剔除,则不再进入模型;开始把全部自变量引入模型,计算量过大。

(3)Bidirectional elimination:逐步筛选法。是在第一个的基础上做一定的改进,当引入一个变量后,首先查看这个变量是否使得模型发生显著性变化(F检验),若发生显著性变化,再对所有变量进行t检验,当原来引入变量由于后面加入的变量的引入而不再显著变化时,则剔除此变量,确保每次引入新的变量之前回归方程中只包含显著性变量,直到既没有显著的解释变量选入回归方程,也没有不显著的解释变量从回归方程中剔除为止,最终得到一个最优的变量集合。

因为没怎么看懂,所以不在这里写具体的步骤了,具体步骤可以参考:https://wenku.baidu.com/view/0cd259ae69dc5022aaea0043.html这个内容,找了很多这个是叙述比较好的。

AIC准则(Akaike Information Criterion):是一种是衡量统计模型拟合优良性(Goodness of fit)的一种标准。

参考:

[1] https://en.wikipedia.org/wiki/Covariance_matrix

[2]https://wenku.baidu.com/view/0cd259ae69dc5022aaea0043.html

[3]https://blog.csdn.net/songhao22/article/details/79369986

回归问题-逐步回归(Stepwise Regression)相关推荐

  1. 特征选择 - 逐步回归 (stepwise regression)

    在学习统计学的时候,留意到有一个算法叫做逐步回归 (stepwise regression).简单来说,就是数据集中的特征的重要性不同,这方法可以把它们排序,找出每一个特征对预测结果的重要性. 以下代 ...

  2. R构建逐步回归模型(Stepwise Regression)

    R构建逐步回归模型(Stepwise Regression) 目录 R构建逐步回归模型(Stepwise Regression) 逐步回归模型(Stepwise Regression)

  3. R语言基于逐步回归(Stepwise regression)进行特征筛选(feature selection)

    R语言基于逐步回归(Stepwise regression)进行特征筛选(feature selection) 对一个学习任务来说,给定属性集,有些属性很有用,另一些则可能没什么用.这里的属性即称为& ...

  4. 机器学习——数据的共线性问题(岭回归、LASSO回归、逐步回归、主成分回归)

    一.如何检验共线性 容忍度(Trlerance):容忍度是每个自变量作为因变量对其他自变量进行回归建模时得到的残差比例,大小用1减得到的决定系数来表示.容忍度的值介于0和1之间,如果值越小,说明这个自 ...

  5. 最小角回归(Least Angle Regression)

    最小角回归和其他方法的比较 逐步选择(forward selection)算法(例如forward stepwise regression)在进行子集选择的时候可能会显得太具有"侵略性&qu ...

  6. R语言使用caret包构建岭回归模型(Ridge Regression )构建回归模型、通过method参数指定算法名称、通过trainControl函数控制训练过程

    R语言使用caret包构建岭回归模型(Ridge Regression )构建回归模型.通过method参数指定算法名称.通过trainControl函数控制训练过程 目录

  7. R语言广义线性模型函数GLM、glm函数构建泊松回归模型(Poisson regression)、输出提供偏差(deviances)、回归参数和标准误差、以及系数的显著性p值

    R语言广义线性模型函数GLM.glm函数构建泊松回归模型(Poisson regression).输出提供偏差(deviances).回归参数和标准误差.以及系数的显著性p值 目录

  8. R构建Logistic回归实战(Logistic Regression)

    R构建Logistic回归实战(Logistic Regression) 目录 R构建Logistic回归实战(Logistic Regression) 逻辑回归(Logistic Regressio ...

  9. R构建岭回归模型(Ridge Regression)实战

    R构建岭回归模型(Ridge Regression)实战 目录 R构建岭回归模型(Ridge Regression) 岭回归模型 选择最优λ值 交叉验证

最新文章

  1. 这一行代码,很有温度!
  2. Lucene教程具体解释
  3. 使用jquery-easyui写的CRUD插件(2)
  4. Logistic Function == Sigmoid Function
  5. App Store应用脱壳
  6. 使用maven整合SSM框架详细步骤
  7. POJ 2186 挑战 --牛红人 强连通分量——Tarjan
  8. C#中的命名空间和程序集
  9. [leetcod] Clone Graph
  10. opensource项目_Opensource.com下一次迭代的重点
  11. window ftp open命令打不开_Centos7上搭建ftp
  12. 独生子女证每月增加3%的退休金,但丢了怎么办?
  13. java 调用oracle函数_java – 用Spring的SimpleJdbcCall来调用Oracle函数
  14. 基础知识:计算机网络--《趣谈网络协议》读书笔记
  15. 明解C语言 入门 课后习题练习答案 第六章
  16. Ubuntu16.04安装微信亲测可用
  17. navicat15 安装
  18. python,爬取图片
  19. 硕飞烧录器、卓晶微烧录机使用
  20. 花了3个小时解决了和异地女朋友一起看电影的需求(内附源码)

热门文章

  1. Windows Workflow Foundation 2 规则引擎简介
  2. mysql repair 所有表_MySQL磁盘满repair多个表问题的解决
  3. 【BZOJ5020】【THUWC2017】在美妙的数学王国中畅游 LCT 泰勒展开
  4. discuz db_mysql.calss.php_刚发现得好东西!discuz 7.0 db_mysql.php 详解
  5. 个人版的一键GHOST工具V1.0 BY何定坤
  6. 聚丙烯酸负载小鼠血清白蛋白(MSA)/大鼠血清白蛋白(RSA)/小麦麦清白蛋白;PAA-MSA/RSA
  7. Web Form ,winform ,
  8. 计算型存储: 异构计算的下一个关键应用
  9. 如何查看文件字节大小
  10. android 的injustdecodebounds