来自:刘建平

1.概述

  在scikit-learn中,与逻辑回归有关的主要有3个类。LogisticRegression, LogisticRegressionCV 和 logistic_regression_path。其中LogisticRegression 和 LogisticRegressionCV的主要区别是LogisticRegressionCV使用了交叉验证来选择正则化系数C。而LogisticRegression需要自己每次指定一个正则化系数。除了交叉验证,以及选择正则化系数C以外,LogisticRegression 和 LogisticsRegressionCV的使用方法基本相同。

  logistic_regression_path类则比较特殊,它拟合数据后,不能直接来做预测,只能为拟合数据选择合适逻辑回归的系数和正则化系数。主要是用在模型选择的时候,一般情况用不到这个类,所以后面不再讲述logistic_regression_path类。

  此外,scikit-learn里面有个容易让人误解的类RandomizedLogisticRegression,虽然名字里有逻辑回归的词,但是主要是用L1正则化的逻辑回归来做特征选择的,属于维度规约的算法类,不属于常说的分类算法范畴。

  后面主要说LogisticRegression 和 LogisticRegressionCV中的参数,这些参数在两个类中意义一样。

2.正则化选择参数:penalty

  LogisticRegression 和 LogisticsRegressionCV 默认带了正则化项。penalty参数可以选择的值为“l1”和“l2”,分别对应L1的正则化和L2的正则化,默认是L2的正则化。

  在调参时如果我们主要的目的只是为了解决过拟合,一般penalty选择L2正则化就够了。但是如果算则L2正则化发现还是过拟合,即预测效果差的时候就考虑L1正则化。另外,如果模型的特征非常多,我们希望一些不重要的特征系数归0,从而让模型系数系数化的话,也可以使用L1正则化。

  penalty参数的选择会影响我们损失函数优化算法的选择。即参数solver的选择,如果是L2正则化,那么4种可选的算法{‘newton-cg’, 'lbfgs', 'liblinear', 'sag'}都可以选择。但是如果penalty是L1正则化的话,就只能选择'liblinear'了。这是因为L1正则化的损失函数不是连续可导的,而{'newton-cg', 'lbfgs', 'sag'}这三种优化算法时都需要损失函数的一阶或者二阶连续可导。而'liblinear'并没有这个依赖。

3.优化算法选择参数:sovler

  solver参数决定了我们对逻辑回归损失函数的优化方法,有4中,分别为:

  1.   liblinear:使用了开源的liblinear库实现,内部使用了坐标下降法来迭代优化损失函数。
  2.   lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
  3.   newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
  4.   sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候。

  从上面的描述可以看出,newton-cg, lbfgs 和 sag这三种优化算法时都需要损失函数的一阶或者二阶连续导数,因此不能用于没有连续导数的L1正则化,只能用于L2正则化。而liblinear通吃L1正则化和L2正则化。

  同时,sag每次仅仅使用了部分样本进行梯度迭代,所以当样本量少的时候不要选择它,而如果样本量非常大,比如大于10万,sag是第一选择。但是sag不能用于L1正则化,所以当你有大量的样本,又需要L1正则化的话就要自己作取舍。要么通过对样本采样来降低样本量,要么回到L2正则化。

  从上面的描述,大家可能觉得,既然newton-cg,  lbfgs, sag 这么多限制,如果不是大样本,我们选择 liblinear 不就行了嘛!错,因为liblinear也有自己的弱点!我们知道,逻辑回归有二元逻辑回归和多元逻辑回归。对于多元逻辑回归常见的有 one-vs-rest(OvR) 和 many-vs-many(MvM) 两种。而MvM一般比OvR分类相对准确一些。郁闷的是liblinear只支持 OvR,不支持MvM,这样如果我们需要相对精确的多元逻辑回归时,就不要选择liblinear了。也意味着如果我们需要相对精确的多元逻辑回归不能使用L1正则化。

4.分类方式选择参数:multi_class

  multi_class参数决定了我们分类方式的选择,有ovr和multinomial两个值可以选择,默认是ovr。

  ovr即前面提到的one-vs-rest(OvR),而multinomial即前面提到的many-vs-many(MvM)。如果是二元逻辑回归,ovr和multinomial并没有任何区别,区别主要在多元逻辑回归上。

  ovr的思想很简单,无论你是多少元逻辑回归,我们都可以看做二元逻辑回归。具体做法是,对于第K类的分类决策,我们把所有第K类的样本作为正例,除了第K类样本以外的所有样本都作为负例,然后在上面做二元逻辑回归,得到第K类的分类模型。其他类的分类模型获得以此类推。

  而MvM则相对复杂,这里举MvM的特例one-vs-one(OvO)作讲解。如果模型有T类,我们每次在所有的T类样本里面选择两类样本出来,不妨记为T1类和T2类,把所有的输出为T1和T2的样本放在一起,把T1作为正例,进行二元逻辑回归,得到模型参数。我们一共需要T(T-1)/2分类。

  从上面的描述可以看出ovr相对简单,但分类效果相对略差(这里大多数样本分布情况,某些样本分布下ovr可能更好)。而MvM分类相对精确,但是分类速度没有ovr快。

  如果选择ovr,则4种损失函数的优化方法liblinear, newton-cg, lbfgs, sag都可以选择。但是如果选择了multinomial, 则只能选择newton-cg, lbfgs, sag了。

5.类型权重参数:class_weight

  class_weight参数用于标示分类模型中各种类型的权重,可以不输入,既不考虑权重,或者说所有类型的权重一样。如果选择输入的话,可以选择balanced让类库自己计算类型权重,或者我们自己输入各个类型的权重,比如对于0,1的二元模型,我们可以定义class_weight={0:0.9, 1:0.1},这样类型0的权重为90%,而类型1的权重为10%。

  如果class_weight选择balanced,那么类库会根据训练样本来计算权重。某种类型样本量越多,则权重越低,样本量越少,则权重越高。

  那么class_weight有什么作用?在分类模型中,我们经常会遇到两类问题:

  第一种是误差分类代价很高。比如对合法用户和非法用户进行分类,将非法用户分类为合法用户的代价很高,我们宁愿将合法分类为非法用户,这时可以人工再甄别,但是却不愿将非法用户分类为合法用户。这时,我们可以适当提高非法用户的权重。

  第二种是样本高度失衡的,比如我们有合法用户和非法用户的二元样本数据10000条,里面合法用户9995条,非法用户只有5条,如果我们不考虑权重,则我们可以将所有的测试集都预测为合法用户,这样预测准确率理论上有99.95%,但是去没有任何意义。这时,我们选择balanced,让类库自动提高非法用户样本权重。

  提高了某种分类的权重,相比不考虑权重,会有更多的样本分类划分到高权重的类别,从而解决了上面两类为题。

  当然,对于第二种样本失衡的情况,我们还可以考虑用样本权重参数:sample_weight,而不使用class_weight。

6.样本权重参数:sample_weight

  上一节我们提到了样本不失衡的问题,由于样本不平衡,导致样本不是总体样本的无偏估计,从而可能导致我们的模型预测能力下降。遇到这种情况,我们可以通过调节样本权重来尝试解决这个问题。调节样本权重的方法有两种,第一种是在class_weight使用balanced。第二种是在调用fit函数时,通过sample_weight来自己调节每个样本权重。

  在scikit_learn做逻辑回归时,如果上面两种方法都用到了,那么样本的真正权值是class_weight*sample_weight。

  以上就是scikit_learn中逻辑回归类库调参的一个小结,还有些参数比如正则化参数C(交叉验证就是Cs),迭代次数max_iter等,由于和其他的算法类库并没有特别不同,这里不多介绍。

转载于:https://www.cnblogs.com/keye/p/9650211.html

scikit_learn逻辑回归类库相关推荐

  1. scikit-learn 逻辑回归类库使用小结

    之前在逻辑回归原理小结这篇文章中,对逻辑回归的原理做了小结.这里接着对scikit-learn中逻辑回归类库的我的使用经验做一个总结.重点讲述调参中要注意的事项. 1. 概述 在scikit-lear ...

  2. logisticregression参数_通俗地说逻辑回归【Logistic regression】算法(二)sklearn逻辑回归实战...

    前情提要: 通俗地说逻辑回归[Logistic regression]算法(一) 逻辑回归模型原理介绍 上一篇主要介绍了逻辑回归中,相对理论化的知识,这次主要是对上篇做一点点补充,以及介绍sklear ...

  3. 逻辑回归(Logistic Regression)

    一. 逻辑回归 在前面讲述的回归模型中,处理的因变量都是数值型区间变量,建立的模型描述是因变量的期望与自变量之间的线性关系.比如常见的线性回归模型: 而在采用回归模型分析实际问题中,所研究的变量往往不 ...

  4. sklearn 逻辑回归中的参数的详解'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'

    penalty : str, 'l1' or 'l2', default: 'l2' 这个是l1 or l2正则化,一般选l2正则化对于逻辑回归分类算法 dual:选择默认的就好,针对的就是l2正则和 ...

  5. python机器学习库sklearn——逻辑回归

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 逻辑分类的相关的知识内容可以参考 http://blog.csdn.net/luanpeng825485697/article/det ...

  6. 逻辑回归:逻辑回归中的参数

    转载自:https://blog.csdn.net/Captain_DUDU/article/details/105081643 LogisticRegression,一共有14个参数: 逻辑回归参数 ...

  7. 逻辑回归使用(参数)

    sklearn中的逻辑回归 1.概述 1.1 面试高危问题:Sigmoid函数的公式和性质 Sigmoid函数是一个S型的函数,当自变量z趋近正无穷时,因变量g(z)趋近于1,而当z趋近负无穷时,g( ...

  8. Sklearn笔记--逻辑回归调参指南

    1 逻辑回归概述 pθ(y=1∣x)=δ(θ⊤x)=11+e−θ⊤xpθ(y=0∣x)=e−θ⊤x1+e−θ⊤x\begin{array}{c} p_{\theta}(y=1 | x)=\delta\ ...

  9. 逻辑回归三部曲——逻辑回归项目实战(信贷数据+Python代码实现)

         逻辑回归已经在各大银行和公司都实际运用于业务,已经有很多前辈写过逻辑回归.本文将从我实际应用的角度阐述逻辑回归的由来,致力于让逻辑回归变得清晰.易懂.逻辑回归又叫对数几率回归,是一种广义线性 ...

最新文章

  1. Android 常见adb命令
  2. iOS - UITableViewCell Custom Selection Style Color
  3. c++清空一个txt文本_Linux练习6: 文本查看cat, head, less
  4. MySql,Sql Server分区技术浅析
  5. python模块之lib2to3(py2转py3自动化工具)
  6. 什么是Adobe Lightroom,我需要它吗?
  7. AN IMAGE IS WORTH 16X16 WORDS :TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE(VIT)
  8. 作者:周涛,男,电子科技大学教授。
  9. STM32 USB数据接收与数据发送程序流程分析
  10. Windows 2003 server下载
  11. 系列课程 ElasticSearch 之第 8 篇 —— SpringBoot 整合 ElasticSearch 做查询(分页查询)
  12. MaxScript分享|FBX骨架转Bip骨架脚本 动画无缝转换 (通吃Max9-2016版本)
  13. 电脑的wifi天线原理_详解无线路由器天线的原理
  14. 前端html标签拨打电话
  15. 7-4 计算职工工资(15分)
  16. 年终盘点,蔚来终于失去互联网造车老大地位,被小鹏取而代之
  17. jQuery_01选择器
  18. java鼠标点击事件_Java 鼠标点击事件实例
  19. 电动和液压运动控制比例阀控制器
  20. 读取服务器内存信息工具,使用Sigar获取服务器内存、IP、CPU、IO、MAC地址、操作系统等信息......

热门文章

  1. UIImagePickerController按钮的中文问题
  2. python 函数的参数对应
  3. NetAdvangate Infragisticss 控件在工程移动到别的机器上,引用失效问题
  4. C# Replace函数与JS replace函数
  5. PDF N-Up Maker:一个把PDF转成小册子或者把多个页面放到一个页面上的工具(免费,免Acrobat,命令行模式)...
  6. Linux自动亮度,ubuntu亮度无法自动调节终极解决方案
  7. iscsi 同步_群晖六盘位旗舰NAS,一文教你如何解决多设备同步,跨平台协调
  8. php返回类中方法,php如何获取类中所有的方法名
  9. osm 搭建离线地图_使用离线OSM离线OpenLayers Web应用程序
  10. mysql 会话级别的参数_PostgreSQL的参数设置级别及查询各级别的参数值