Lasso回归模型,是常用线性回归的模型,当模型维度较高时,Lasso算法通过求解稀疏解对模型进行变量选择。Lars算法则提供了一种快速求解该模型的方法。Lars算法的基本原理有许多其他文章可以参考,这里不过多赘述, 这里主要简介如何在R中利用lars算法包求解线性回归问题以及参数的选择方法。

以下的的一些用法参照lars包的帮助文件,再加上自己的使用心得。所用的示例数据diabetes是Efron在其论文中“Least Angle Regression”中用到的,可以在加载lars包后直接获得

library(lars)
data(diabetes)
attach(diabetes) 

该数据中含有三个变量x,x2,y, 其中x是一个有422X10维的矩阵,y是一个422维的向量 ,x2是由x得到的422X64维矩阵(compressive).

1. 求解路径solution path

lars(x, y, type = c("lasso", "lar", "forward.stagewise", "stepwise"), trace = FALSE, normalize = TRUE, intercept = TRUE, Gram, eps = .Machine$double.eps, max.steps, use.Gram = TRUE)

该函数提供了通过回归变量x和因变量y求解其回归解路径的功能。其中,

type ---- 表示所使用的回归方法,包括(lasso, lar, forward.stagewise, stepwise),选择不同的回归方法将得到不同的解路径;

normalize ---- 表示是否对变量进行归一化,当为TRUE时,程序将对x和y进行L2正则化;

intercept ---- 表示是否对变量进行中心化,当为TRUE时,程序将对x和y分别减去其均值。

下面使用四种不同的回归方法对其进行回归分析

object1 <- lars(x,y,type="lasso")
object2 <- lars(x,y,type="lar")
object3 <- lars(x,y,type="forward.stagewise")
object4 <- lars(x,y,type="stepwise") 

返回参数是一个list,其中包含了每次迭代得到的回归系数beta以及lambda等16个返回值。

可以分别对返回参数用plot( )画出其solution path的图像.

可以看到lars算法,算法的步数较少即迭代次数较少,且与参数个数相同,当数据维数非常高的时候lars算法相较于其他回归算法速度非常快。

2. 利用交叉验证(Cross Validtion)确认参数

在上一步我们可以看到lars一次给了其solution path上的所有解,我们需要确定其中哪个解是我们真正要用到的. 在lasso模型中,约束项由参数lambda进行控制,当给定了lambda,模型才能够确定下来。一个好的回归模型,需要给定一个合适的lambda,但是lamda的范围往往比较大。注意到lars算法给出的解路径上的解个数是有限的,不同的解即不同的beta就对应了不同的lambda, 从solution path的图可以看到, 我们可以通过选定算法的step步数或者选定beta饱和度|beta|/max|beta|(此处| |表示一范数,饱和度同样也表征了解的稀疏度)来选定模型的参数.

此时就需要用到lars包中的cv.lars函数,

cv.lars(x, y, K = 10, index, trace = FALSE, plot.it = TRUE, se = TRUE,type = c("lasso", "lar", "forward.stagewise", "stepwise"), mode=c("fraction", "step"), ...)

K ----- 表示在进行交叉验证时,将数据随机分为K份,每次使用其中K-1份作为训练数据,用剩下的一份进行验证,最后计算这K次验证的均方误差;

mode ----- 表示用到的参数指标, step即按步数step去选择所需的参数,fraction即按照path中的横坐标|beta|/max|beta|去选择所需变量,fraction默认为0:100:1即 index=seq(from=0,to=1,length=100).

其他的type等参数与lars()中的意义相同,下面我们以type="lar"时为例,以x2为自变量,演示确定回归参数的方法.

首先为方便描述,我们先单独画出使用该方法得到的solution path

然后利用lars.cv来确定其参数,首先使用的index为mode="step"

data(diabetes)
attach(diabetes)
cvsol1<-cv.lars(x2,y,type="lar",mode="step")
detach(diabetes)

得到交叉验证的均方误差MSE分析结果图如下,

我可以看到由交叉验证得到的最优回归系数(使得均方误差MSE最小)是稀疏的,然后用以下语句得出最优解对应地的step步数为15,

 > cvsol1$index[which.min(cvsol1$cv)]
[1] 15

相应地,第15步对应的的回归系数以及其饱和度|bata|/max|beta|为

得到的回归系数beta的稀疏度为14与真实稀疏度相近, 此处计算其饱和度是为了接下来与用饱和度为 index确定回归系数做对比。

接下来我们用饱和度作为inedx来确定最优, 此处我们已知最优的饱和度大致在0和0.1之间,为便于对比,这里设置饱和度的区间为0:100:0.1

data(diabetes)
attach(diabetes)
cvsol2<-cv.lars(x2,y,type="lar",mode="fraction",
index=seq(from=0,to=0.1,length=100) )
detach(diabetes)

得到的均方误差MSE分析图为

然后同样是提取其中使得均方误差最小的饱和度,得到的结果为0.03232323

cvsol2$index[which.min(cvsol2$cv)]

[1] 0.03232323

与前面用step作为index的结果相似, 不过由于交叉验证每次都是随机分组,因此交叉验证的结果可能会由于分组的不同而不同.

3. 利用回归模型进行预测

在利用上述方法确定了模型中的参数后,就可以使用predict来进行预测

predict(object, newx, s, type = c("fit", "coefficients"), mode = c("step",

"fraction", "norm", "lambda"), ...)

bject ---- 表示我们在1.中得到的包含了解路径信息的返回参数;

type ---- 当type为"fit"时, 可以给定一个新的样本newx,则该函数返回通过lars回归模型得到的预测值;

当type为"coefficient"时,则不需要输入newx, 该函数返回模型的回归系数;

mode ---- 表示我们输入的模型的参数类型,包括如2.中使用的步数step和饱和度fraction,还有罚项中的lambda等;

(注意若原模型没有给定的lambda, 此处的最优lambda同样可以用交叉验证得到)

当mode选定以后, 就可以在 s 中输入给定的参数值.(可以用向量的形式输入多个参数)

下面给出两组包含求解路径、选定参数、预测的完整代码示例。

首先是用饱和度为参数指标得到模型的回归系数的例子,这里通过交叉验证得到使得MSE最小的beta饱和度为0.2828283,因此,在进行预测时, 选择mode=“fraction”,s=0.2828283:

然后是用步数作为参数指标来,并对给定的样本进行预测的例子:

(这里以x2的前十行即前十个训练样本作为newx带入模型)

此处通过交叉验证得到使得MSE最小的步数为17,因此,在进行预测时, 选择mode=“step”,s=17, 输入样本数据后将 type 选为"fit", 即可得到相应的预测值 y.

以步数确定参数,得到的beta一定是solution path上拐点处对应的beta,而使用饱和度确定参数个得到的可能是拐点连线上的beta值。使用哪个可以自己斟酌,或者如2.中先以step确定饱和度的大致分范围,然后在该范围内划分饱和度来确定参数。

https://blog.csdn.net/nya0731/

最小角回归 LARS算法包的用法以及模型参数的选择(R语言 )相关推荐

  1. 【Python机器学习预测分析算法实战五】最小角回归LARS

      通过前面的介绍,我们了解到求解惩罚性回归模型等价于求解一个优化问题,有大量的通用算法可以求解.这次介绍一个非常快速敏捷的算法--最小角回归(LARS)算法.LARS算法可以理解为一种改进的前向逐步 ...

  2. 机器学习 最小角回归 LARS

    推荐阅读:http://mlnotes.com/2013/08/21/lars.html

  3. 机器学习与算法(12)--最小角回归(LARS)

    最小角回归(LARS) 最小角回归(LARS)是对高维数据的回归算法, 由 Bradley Efron, Trevor Hastie, Iain Johnstone 和 Robert Tibshira ...

  4. 最小角回归(Least Angle Regression)

    最小角回归和其他方法的比较 逐步选择(forward selection)算法(例如forward stepwise regression)在进行子集选择的时候可能会显得太具有"侵略性&qu ...

  5. Lasso回归算法: 坐标轴下降法与最小角回归法小结

    前面的文章对线性回归做了一个小结,文章在这: 线性回归原理小结.里面对线程回归的正则化也做了一个初步的介绍.提到了线程回归的L2正则化-Ridge回归,以及线程回归的L1正则化-Lasso回归.但是对 ...

  6. 机器学习 最小角回归法 LARS

    在介绍最小角回归算法前,我们需要了解两个相关算法,一个是前向选择算法(Foward Selection),一个是前向梯度算法(Forward Statgewise). 1.前向选择算法(Foward ...

  7. 1.1.7. Least Angle Regression(最小角回归)和 1.1.8. LARS Lasso

    1.1.7. Least Angle Regression 简介 求极值的算法有很多,有基于梯度的,例如: 常规梯度下降.坐标梯度下降.最速梯度下降.共轭梯度下降 也有基于样本和角度的,例如: 前向选 ...

  8. 机器学习方法:回归(三):最小角回归Least Angle Regression(LARS),forward stagewise selection

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 希望与志同道合的朋友一起交流,我刚刚设立了了一个技术交流QQ群:433250724,欢迎对算法.技术.应用感 ...

  9. Skleran-线性模型-最小角回归(LARS)

    最小角回归 sklearn.linear_model.Lars sklearn.linear_model.LassoLars 最小角回归 sklearn.linear_model.Lars class ...

最新文章

  1. Python的常用模块
  2. javascript获取浏览器客户端IP
  3. 单词方阵(洛谷-P1101)
  4. unity改变物体轴心
  5. MATLAB求导函数diff(a,b,c)
  6. Android11安装谷歌,Android 11正式版
  7. Redis与数据库数据同步解决方案
  8. 大容量sd卡reread之后/dev下概率性出现无设备文件
  9. Shopee优选卖家真的重要吗?
  10. 03-CGB-DB-INIT-V1.01
  11. 测牛学堂:2023软件测试入门学习指南之测试方法完结总结
  12. 一对情侣用计算机电影,一个剧情电影,讲述一对情侣谈恋爱的故事
  13. android如何释放图片缓存
  14. call和calling的用法_call和called的区别和用法
  15. 1103 缘分数 (20 分)
  16. DataStory·2017大数据商业创新论坛(上海站)圆满结束
  17. Excel中如何将多页强制打印在一页上
  18. Visual Studio/MFC编程入门之MFC常用类:CString类
  19. 自媒体视频剪辑,怎样去掉视频中的字幕和水印
  20. s400x ugee 驱动_友基手写板驱动下载_友基手写板驱动官方下载-太平洋下载中心...

热门文章

  1. ubuntu18.04配置静态ip
  2. qgraphicsitem 复制副本,QGraphicsItem:调用paint函数时
  3. 如何有效的清理c盘文件?真实有效
  4. SpringBoot启动时:Process finished with exit code 0解决办法
  5. Linux监控多台远程服务器磁盘空间剩余情况并发送预警邮件以及电话告警
  6. java高校实验室预约管理系统
  7. java实现beamsearch_Beam Search(集束搜索/束搜索)
  8. 北斗短报文和北斗定位入门篇
  9. django orm原理_django 动态创建一个模型的多个table name, 并通过 Django ORM 操作
  10. matlab保存所有图,Matlab中图片保存的5种方法