聊聊group lasso
这次聊聊线性模型中的group lasso (lasso即为将模型中权重系数的一阶范数惩罚项加到目标函数中)惩罚项。
假设Y是由N个样本的观测值构成的向量,X是一个大小为N * p的特征矩阵。在group lasso中,将p个特征分成L组,每个组中特征个数为Pi,其中i的取值为1,2,..., L。将第i个特征组对应的矩阵记为Xi,对应的系数向量记为βi。
容易看出,group lasso是对lasso的一种推广,即将特征分组后的lasso。显然(好久没用这个词了),如果每个组的特征个数都是1,则group lasso就回归到原始的lasso。
group lasso 在特征组内不具有稀疏性。为了使得特征组内的特征具有稀疏性,只需参照原始的lasso中的做法,在目标函数中加入一个惩罚项,这个惩罚项基于对所有特征对应系数的一阶范数。
为了求解group lasso, 可以首先假设组内特征是正交的,针对这种情形可以利用分块坐标下降法求解,对于非正交的情形,可以首先对组内特征施加正交化。
示例:
假设有200个观测样本,特征维数为100, 特征来自10组。观测值服从标准高斯分布,组内特征的相关系数是0.2, 组间特征的相关系数为0,每个观测值都加入了标准差为4的高斯噪声。
图2给出了lasso, group lasso以及sparse group lasso中所得估计系数的符号,每种方法都利用了已经调节好的参数(其中sparse group lasso 中的λ1 = λ2)。
图3给出了组内和每个特征的分类错误率,可以看出,sparse group lasso 很好地折衷了lasso和group lasso, 这种方法能够使得组内特征集和整体特征集合都具有稀疏性。
将原始的lasso融入到group lasso就可以得到sparse group lasso,为了数学上更清晰的区别group lasso和sparse group lasso,下面的公式 1 2分别是相应的目标函数。
sparse group lasso 算法步骤如下:
其中 (8)如下图:
图2
图3
总结一下(发表下愚见),group lasso 归根到底即为对特征分组,这种特性比较适合用于多模态,比如图像+语音+文字,也比较适用于多种组别的特征,比如电子商务中的用户属性+产品属性+上下文属性。
参考资料:
http://statweb.stanford.edu/~tibs/ftp/sparse-grlasso.pdf
http://stat.rutgers.edu/home/tzhang/papers/arxiv0901.2962.pdf
Friedman J, Hastie T, Tibshirani R. A note on the group lasso and a sparse group lasso[J]. arXiv preprint arXiv:1001.0736, 2010.
Yuan M, Lin Y. Model selection and estimation in regression with grouped variables[J]. Journal of the Royal Statistical Society: Series B (Statistical Methodology), 2006, 68(1): 49-67.
Meier L, Van De Geer S, Bühlmann P. The group lasso for logistic regression[J]. Journal of the Royal Statistical Society: Series B (Statistical Methodology), 2008, 70(1): 53-71.
Simon N, Tibshirani R. Standardization and the group lasso penalty[J]. Statistica Sinica, 2012, 22(3): 983.
Roth V, Fischer B. The group-lasso for generalized linear models: uniqueness of solutions and efficient algorithms[C]//Proceedings of the 25th international conference on Machine learning. ACM, 2008: 848-855.
Jacob L, Obozinski G, Vert J P. Group lasso with overlap and graph lasso[C]//Proceedings of the 26th annual international conference on machine learning. ACM, 2009: 433-440.
聊聊group lasso相关推荐
- 宽带离网用户分析(5) Lasso和Group Lasso
宽带离网用户分析之Lasso和Group Lasso Lasso Lasso,全称为(The Least Absolute Shrinkage and Selectionator operator), ...
- lasso变形(一)----group lasso
一.引言 在现实生活中,协变量之间存在一些组结构,那么在进行变量选择时都应该同时选入模型中. 例1:在分类数据中,我们通常处理方式是将其变成哑变量.如地域:江苏.浙江.上海.这时需要设置2个哑变量(n ...
- Lasso回归系列四:Group Lasso,Sparse Group Lasso
Lasso变体:Group Lasso,Sparse Group Lasso 关于Lasso回归的讲解可以看我的另一篇博客:Lasso回归系列二:Lasso回归/岭回归的原理 Group Lasso ...
- Lasso和Group Lasso的闭式解
优化目标 其中 求导,得到 其中 得到 对于在深度学习中group LASSO而言来压缩的时候,问题转换为求解: 其中 是可学习参数,可以看做是一个向量. 是training loss, 是正则化项. ...
- Group Lasso
简介 Lasso(least absolute shrinkage and selection operator,又译最小绝对值收敛和选择算子.套索算法)是一种同时进行特征选择和正则化(数学)的回归分 ...
- group lasso matlab,一种利用肠道微生物菌群评价生猪个体蛋白营养状态的方法与流程...
本发明涉及一种评价生猪个体蛋白营养状态的方法,特别涉及一种利用肠道微生物菌群评价生猪个体蛋白营养状态的方法. 背景技术: 近年来,饲料原料的紧缺,人畜争粮状况加剧:超过营养需求的饲料供应也会加重畜禽养 ...
- lasso的今世前身
lasso的今世前身 引言 年关将至,少不了写年终总结.自己也绞尽脑汁对研读的统计文献做一个总结.我们来聊聊20年前诞生的lasso.lasso理论文章由统计学家Tibshirani, R在于1996 ...
- 阿里二面:group by 怎么优化?
01 前言 哈喽,我是狗哥,好久不见呀!是的,我又又换了工作.最近一直在面试这几天刚好整理下在面试中被问到有意思的问题,也借此机会跟大家分享下. 这家企业的面试官有点意思,一面是个同龄小哥,一起聊了两 ...
- Lasso思想及算法
From: http://blog.csdn.net/godenlove007/article/details/11387977 1.只有这么几个人在做LASSO,他们都是大牛,你可以直接GOOGLE ...
最新文章
- CyberRT使用笔记
- make编译过程-Android10.0编译系统(三)
- CONVERT_DATE_WITH_THRESHOLD
- 剑与远征的最新公告,玩家能获得什么?除了资源,体验怎么样?
- Consul etcd ZooKeeper euerka 对比
- Python案例:格式化输出斐波拉契数列
- WebStorm设置自动刷新
- 中文依存句法分析概述及应用
- WARNING:root:could not open file ‘/etc/apt/sources.list.d
- Python使用TCPServer编写(多线程)Socket服务
- 精美绝伦的KShong GHOST Windows7-Pro 2010幸福版
- Kafka的消息可靠性(防止消息丢失)
- Python爬虫爬取个人主页信息(拖拽验证码验证)+Linux部署
- python求职意向怎么写_怎样写好求职简历?
- 介绍requests+threading多线程爬虫,提取采用xpath 和正则两种,介绍线程锁
- Java实现--身高预测
- Kotlin里的takeIf和takeUnless
- B树与B+树简明扼要的分析
- 阿里数据中台演进四个阶段
- vue3中的ref 和 reactive 定义数组