SVM

  1. 对数据进行归一化 (simple scaling)
  2. 使用RBF kernel
  3. 使用cross_validation 和 grid_search得到最佳参数gamma和C
  4. 使用得到的最优C和gamma训练训练数据
  5. 测试

svm的C

C是惩罚系数,即对误差的宽容度。一般可以选择为:10^t , t=[- 4,4]就是0.0001 到10000。c越高,说明越不能容忍出现误差,容易过拟合。C越小,容易欠拟合。C过大或过小,泛化能力变差

常用核函数

核函数参数设置

  • 线性核函数:没有专门需要设置的参数
  • 多项式核函数:有三个参数。
    -d用来设置多项式核函数的最高次项次数,也就是公式中的d,默认值是3,一般选择1-11:1 3 5 7 9 11,也可以选择2,4,6…。
    -g用来设置核函数中的gamma参数设置,也就是公式中的gamma,默认值是1/k(特征数)。
    -r用来设置核函数中的coef0,也就是公式中的第二个r,默认值是0。
  • RBF核函数:有一个参数。-g用来设置核函数中的gamma参数设置,也就是公式中gamma,默认值是1/k(k是特征数)。
  • **sigmoid核函数又叫做S形内核 **:有两个参数。
    -g用来设置核函数中的gamma参数设置,也就是公式中gamma,默认值是1/k(k是特征数)。一般可选1 2 3 4
    -r用来设置核函数中的coef0,也就是公式中的第二个r,默认值是0。一般可选 0.2 0.4 0.6 0.8 1

rbf核函数gamma :

gamma是选择RBF函数作为kernel后,该函数自带的一个参数。隐含地决定了数据映射到新的特征空间后的分布,gamma越大,支持向量越少,gamma值越小,支持向量越多支持向量的个数影响训练与预测的速度。

需要注意的就是gamma的物理意义,RBF的幅宽会影响每个支持向量对应的高斯的作用范围,从而影响泛化性能。如果gamma设的太大,方差会很小,方差很小的高斯分布长得又高又瘦, 会造成只会作用于支持向量样本附近,对于未知样本分类效果很差,存在训练准确率可以很高,(如果让方差无穷小,则理论上,高斯核的SVM可以拟合任何非线性数据,但容易过拟合)而测试准确率不高的可能,就是通常说的过训练;而如果设的过小,则会造成平滑效应太大,无法在训练集上得到特别高的准确率,也会影响测试集的准确率。

使用grid Search调参比较简单,详见交叉验证与网格搜索算法,而且看起来很naïve。有两个优点:
可以得到全局最优,(C,gamma)相互独立,便于并行化进行。缺点:耗时!!!

KNN

超参数为:n_neighbors /weight/p/algorithm(只有当weight=distance的时候,p值才有意义)

Naive Bayes

Decision Trees

RandomForest

1. RF的Bagging框架的参数

  1. n_estimators: 弱学习器的最大迭代次数,或者说最大的弱学习器的个数。一般来说n_estimators太小,容易欠拟合,n_estimators太大,计算量会太大,并且n_estimators到一定的数量后,再增大n_estimators获得的模型提升会很小,所以一般选择一个适中的数值。默认是100。在实际调参的过程中,我们常常将n_estimators和learning_rate一起考虑。

  2. oob_score:即是否采用袋外样本来评估模型的好坏。默认False。个人推荐设置为True,因为袋外分数反应了一个模型拟合后的泛化能力。

  3. criterion: 即CART树做划分时对特征的评价标准。分类模型和回归模型的损失函数是不一样的。分类RF对应的CART分类树默认是基尼系数gini,另一个可选择的标准是信息增益。回归RF对应的CART回归树默认是均方差mse,另一个可以选择的标准是绝对值差mae。一般来说选择默认的标准就已经很好的。

    重要的参数是 n_estimators,即RF最大的决策树个数。

2. RF决策树参数与决策树参数相同,参见上面的DecisionTree除去splitter,在结点进行分裂的时候,先随机取固定个特征,然后选择最好的分裂属性这种方式。

scikit-learn中实现了两种随机森林算法,一种是RandomForest,另外一种是ExtraTrees
ExtraTrees在最好的几个(依然可以指定sqrt与log2)分裂属性中随机选择一个来进行分裂。

LogisticRegression

  • 惩罚项penalty‘l1’ or ‘l2’, 默认: ‘l2’ ,在调参时如果我们主要的目的只是为了解决过拟合,一般penalty选择L2正则化就够了。但是如果选择L2正则化发现还是过拟合,即预测效果差的时候,就可以考虑L1正则化。如果模型的特征非常多,希望一些不重要的特征系数归零,从而让模型系数稀疏化,也可以使用L1正则化。

  • solver优化方法

    • liblinear:使用了开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数。
    • lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
    • newton-cg:牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
    • sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候,SAG是一种线性收敛算法,这个速度远比SGD快。
  • C:正则化系数λ的倒数,float类型,默认为1.0。必须是正浮点型数。像SVM一样,越小的数值表示越强的正则化。

  • class_weight:用于标示分类模型中各种类型的权重,可以是一个字典或者’balanced’字符串,默认为不输入,也就是不考虑权重,即为None。如果选择输入的话,可以选择balanced让类库自己计算类型权重,或者自己输入各个类型的权重。举个例子,比如对于0,1的二元模型,我们可以定义class_weight={0:0.9,1:0.1},这样类型0的权重为90%,而类型1的权重为10%。如果class_weight选择balanced,那么类库会根据训练样本量来计算权重。某种类型样本量越多,则权重越低,样本量越少,则权重越高。当class_weight为balanced时,类权重计算方法如下:n_samples / (n_classes * np.bincount(y))。n_samples为样本数,n_classes为类别数量,np.bincount(y)会输出每个类的样本数,例如y=[1,0,0,1,1],则np.bincount(y)=[2,3]。

  • max_iter:算法收敛最大迭代次数,int类型,默认为10。仅在正则化优化算法为newton-cg, sag和lbfgs才有用,算法收敛的最大迭代次数。

  • multi_class:分类方式选择参数,str类型,可选参数为ovr和multinomial默认为ovr。ovr即前面提到的one-vs-rest(OvR),而multinomial即前面提到的many-vs-many(MvM)。如果是二元逻辑回归,ovr和multinomial并没有任何区别,区别主要在多元逻辑回归上。如果选择了ovr,则4种损失函数的优化方法liblinear,newton-cg,lbfgs和sag都可以选择。但是如果选择了multinomial,则只能选择newton-cg, lbfgs和sag了。

注:从上面的描述可以看出,newton-cg, lbfgs和sag这三种优化算法时都需要损失函数的一阶或者二阶连续导数,因此不能用于没有连续导数的L1正则化,只能用于L2正则化。而liblinear通吃L1正则化和L2正则化。

liblinear适用于小数据集,而sag和saga适用于大数据集因为速度更快。

XGBoost

XGBoost的作者把所有的参数分成了三类:

  1. 通用参数:宏观函数控制。
  2. Booster参数:控制每一步的booster(tree/regression)。
  3. 学习目标参数:控制训练目标的表现。
    参见这篇博文机器学习系列(12)_XGBoost参数调优完全指南(附Python代码)
    要调节的参数有两种:树参数和boosting参数。learning rate没有什么特别的调节方法,因为只要我们训练的树足够多learning rate总是小值来得好。

选择一个相对来说稍微高一点的learning rate。一般默认的值是0.1,不过针对不同的问题,0.05到0.2之间都可以
决定当前learning rate下最优的决定树数量。它的值应该在40-70之间。记得选择一个你的电脑还能快速运行的值,因为之后这些树会用来做很多测试和调参。
接着调节树参数来调整learning rate和树的数量。我们可以选择不同的参数来定义一个决定树,降低learning rate,同时会增加相应的决定树数量使得模型更加稳健

  1. 固定 learning rate和需要估测的决定树数量

    为了决定boosting参数,我们得先设定一些参数的初始值,可以像下面这样:

    • min_ samples_ split=500:
      这个值应该在总样本数的0.5-1%之间,由于我们研究的是不均等分类问题,我们可以取这个区间里一个比较小的数,500。

    • min_ samples_ leaf=50:
      可以凭感觉选一个合适的数,只要不会造成过度拟合。同样因为不均等分类的原因,这里我们选择一个比较小的值。

    • max_ depth=8: 根据观察数和自变量数,这个值应该在5-8之间。这里我们的数据有87000行,49列,所以我们先选深度为8。

    • max_ features=’sqrt’: 经验上一般都选择平方根

    • subsample=0.8: 开始的时候一般就用0.8

注意我们目前定的都是初始值,最终这些参数的值应该是多少还要靠调参决定。现在我们可以根据learning rate的默认值0.1来找到所需要的最佳的决定树数量,可以利用网格搜索(grid search)实现,以10个数递增,从20测到80。

  1. 树参数可以按照这些步骤调节:

    1. 调节max_depth和 num_samples_split
    2. 调节min_samples_leaf
    3. 调节max_features

需要注意一下调参顺序,对结果影响最大的参数应该优先调节,就像max_depth和num_samples_split。

  1. 调节子样本比例来降低learning rate

    接下来就可以调节子样本占总样本的比例
    param_test5 = {‘subsample’:[0.6,0.7,0.75,0.8,0.85,0.9]}

MLPClassifier
参数说明:

  1. hidden_layer_sizes :例如hidden_layer_sizes=(100, 50),表示有两层隐藏层,第一层隐藏层有100个神经元,第二层有50个神经元。
  2. activation :激活函数,{‘identity’, ‘logistic’, ‘tanh’, ‘relu’}, 默认relu
    • identity:f(x) = x
    • logistic:其实就是sigmod,f(x) = 1 / (1 + exp(-x)).
    • tanh:f(x) = tanh(x).
    • relu:f(x) = max(0, x)
  3. solver: {‘lbfgs’, ‘sgd’, ‘adam’}, 默认adam,用来优化权重
  • lbfgs:quasi-Newton方法的优化器
  • sgd:随机梯度下降
  • adam: Kingma, Diederik, and Jimmy Ba提出的机遇随机梯度的优化器
    注意:默认solver ‘adam’在相对较大的数据集上效果比较好(几千个样本或者更多),对小数据集来说,lbfgs收敛更快效果也更好。
  1. alpha :float,可选的,默认0.0001,正则化项参数
  2. batch_size : int , 可选的,默认’auto’,随机优化的minibatches的大小batch_size=min(200,n_samples),如果solver是’lbfgs’,分类器将不使用minibatch
  3. learning_rate :学习率,用于权重更新,只有当solver为’sgd’时使用,{‘constant’,’invscaling’, ‘adaptive’}, 默认constant
    • ‘constant’: 有’learning_rate_init’给定的恒定学习率
    • ‘incscaling’:随着时间t使用’power_t’的逆标度指数不断降低学习率learning_rate_ ,effective_learning_rate = learning_rate_init / pow(t, power_t)
    • ‘adaptive’:只要训练损耗在下降,就保持学习率为’learning_rate_init’不变,当连续两次不能降低训练损耗或验证分数停止升高至少tol时,将当前学习率除以5.
  4. power_t: double, 可选, default 0.5,只有solver=’sgd’时使用,是逆扩展学习率的指数.当learning_rate=’invscaling’,用来更新有效学习率。
  5. max_iter: int,可选,默认200,最大迭代次数。
  6. random_state:int 或RandomState,可选,默认None,随机数生成器的状态或种子。
  7. shuffle: bool,可选,默认True,只有当solver=’sgd’或者‘adam’时使用,判断是否在每次迭代时对样本进行清洗。
  8. tol:float, 可选,默认1e-4,优化的容忍度
  9. learning_rate_int:double,可选,默认0.001,初始学习率,控制更新权重的补偿,只有当solver=’sgd’ 或’adam’时使用。
  10. verbose : bool, 可选, 默认False,是否将过程打印到stdout
  11. warm_start : bool, 可选, 默认False,当设置成True,使用之前的解决方法作为初始拟合,否则释放之前的解决方法。
  12. momentum : float, 默认 0.9,动量梯度下降更新,设置的范围应该0.0-1.0. 只有solver=’sgd’时使用.
  13. nesterovs_momentum : boolean, 默认True, Whether to use Nesterov’s momentum. 只有solver=’sgd’并且momentum > 0使用.
  14. early_stopping : bool, 默认False,只有solver=’sgd’或者’adam’时有效,判断当验证效果不再改善的时候是否终止训练,当为True时,自动选出10%的训练数据用于验证并在两步连续迭代改善,低于tol时终止训练。
  15. validation_fraction : float, 可选, 默认 0.1,用作早期停止验证的预留训练数据集的比例,早0-1之间,只当early_stopping=True有用
  16. beta_1 : float, 可选, 默认0.9,只有solver=’adam’时使用,估计一阶矩向量的指数衰减速率,[0,1)之间
  17. beta_2 : float, 可选, 默认0.999,只有solver=’adam’时使用估计二阶矩向量的指数衰减速率[0,1)之间
  18. epsilon : float, 可选, 默认1e-8,只有solver=’adam’时使用数值稳定值。

属性说明:

  • classes_:每个输出的类标签
  • loss_:损失函数计算出来的当前损失值
  • coefs_:列表中的第i个元素表示i层的权重矩阵
  • intercepts_:列表中第i个元素代表i+1层的偏差向量
  • n_iter_ :迭代次数
  • n_layers_:层数
  • n_outputs_:输出的个数
  • out_activation_:输出激活函数的名称。

参考文献:
https://xijunlee.github.io/2017/03/29/sklearn中SVM调参说明及经验总结/
https://www.cnblogs.com/pinard/p/6065607.html
https://blog.csdn.net/u011311291/article/details/78743393

scikit learn各个常用模型调参总结相关推荐

  1. AIRec个性化推荐召回模型调参实战

    简介:本文是<AIRec个性化推荐召回模型调参实战(电商.内容社区为例)>的视频分享精华总结,主要由阿里巴巴的产品专家栀露向大家分享AIRec个性化推荐召回模型以及针对这些召回模型在电商和 ...

  2. 大数据预测实战-随机森林预测实战(四)-模型调参

    之前对比分析的主要是数据和特征层面,还有另一部分非常重要的工作等着大家去做,就是模型调参问题,在实验的最后,看一下对于树模型来说,应当如何进行参数调节. 调参是机器学习必经的一步,很多方法和经验并不是 ...

  3. 一文掌握模型调参神器:Hyperopt

    hyperopt是一个Python库,主要使用 ①随机搜索算法 ②模拟退火算法 ③TPE算法 来对某个算法模型的最佳参数进行智能搜索,它的全称是Hyperparameter Optimization. ...

  4. DeepFM模型调参

    Ref: https://tech.meituan.com/2018/06/07/searchads-dnn.html 影响神经网络的超参数非常多,神经网络调参也是一件非常重要的事情.工业界比较实用的 ...

  5. python网格搜索核函数_机器学习笔记——模型调参利器 GridSearchCV(网格搜索)参数的说明...

    算法 数据结构 机器学习笔记--模型调参利器 GridSearchCV(网格搜索)参数的说明 GridSearchCV,它存在的意义就是自动调参,只要把参数输进去,就能给出最优化的结果和参数.但是这个 ...

  6. ML之XGBoost:利用XGBoost算法对波士顿数据集回归预测(模型调参【2种方法,ShuffleSplit+GridSearchCV、TimeSeriesSplitGSCV】、模型评估)

    ML之XGBoost:利用XGBoost算法对波士顿数据集回归预测(模型调参[2种方法,ShuffleSplit+GridSearchCV.TimeSeriesSplitGSCV].模型评估) 目录 ...

  7. DL之模型调参:深度学习算法模型优化参数之对LSTM算法进行超参数调优

    DL之模型调参:深度学习算法模型优化参数之对LSTM算法进行超参数调优 目录 基于keras对LSTM算法进行超参数调优 1.可视化LSTM模型的loss和acc曲线

  8. DL之模型调参:深度学习算法模型优化参数之对深度学习模型的超参数采用网格搜索进行模型调优(建议收藏)

    DL之模型调参:深度学习算法模型优化参数之对深度学习模型的超参数采用网格搜索进行模型调优(建议收藏) 目录 神经网络的参数调优 1.神经网络的通病-各种参数随机性 2.评估模型学习能力

  9. 炼丹神器!模型调参这门“玄学”,终于被破解了

    吃一个苹果要几步?这对普通人来说,是一件很简单的事. 那么AI模型调参需要几步呢?调参是机器学习中至关重要的一环,因其复杂性而被称之为一门"玄学".这对开发小白和AI专业算法工程师 ...

最新文章

  1. 常见的 IO 模型有哪些?Java 中 BIO、NIO、AIO 的区别?
  2. 华为敏捷 DevOps 实践:产品经理如何开好敏捷回顾会议
  3. dp_c_区间dp_g
  4. Android - aar文件资源重复引起的打包失败解决方法
  5. Tornado-Lesson05-模版继承、函数和类导入、ui_methods和ui_modules
  6. rpm命令包安装mysql_CentOS7使用rpm包安装mysql 5.7.18
  7. mysql多线程复制binlog_MySQL并发复制系列一:binlog组提交 (转载)
  8. SPPNet算法解析
  9. 在SSRS报表中,显示图片
  10. 336 Palindrome Pairs 回文对
  11. CROC 2016 - Elimination Round Mischievous Mess Makers
  12. 从代码角度看CAN网络层协议 ISO 15765-2(一)
  13. OpenCV之VideoCapture的使用——打开网络摄像头/图像序列
  14. 杀了一个程序员祭天换来今天的正常推送:仿知乎APP源码分享
  15. 用8266学习单片机-9-红外报警器-基于光敏电阻的模拟信号读取
  16. VS2015中“项目无法加载,因为它缺少安装组件”的解决方法
  17. 教你阅读 Cpython 的源码(一)
  18. java-jsp-nutz基础周测
  19. 一位上海疫情下的悲催女程序员!
  20. 用ExcelVBA下载股票板块历史数据

热门文章

  1. Linux下通过Wine安装微信
  2. Listbox+time picker
  3. Spring Boot微服务间文件返回实现
  4. 管理理念:非金钱激励员工的108种手段
  5. 目录网站网址导航网源码 帝国cms内核
  6. 经典男人感悟100条
  7. linux下搭建MQTT服务
  8. 原来华为手机熄屏后,竟还有5大隐藏操作!看完涨知识了
  9. 笔记本电脑截图的方法
  10. keepalived高可用解决脑裂,nginx高可用配置详细篇