点击上方“视学算法”,选择加"星标"或“置顶

重磅干货,第一时间送达

来源丨AI公园

编辑丨极市平台

导读

ML工作流中最困难的部分之一是为模型找到最好的超参数。ML模型的性能与超参数直接相关。本文就“传统的手工调参、网格搜索、随机搜索、贝叶斯搜索”展开说明。

介绍

维基百科上说,“Hyperparameter optimizationtuning是为学习算法选择一组最优的hyperparameters的问题”。

ML工作流中最困难的部分之一是为模型找到最好的超参数。ML模型的性能与超参数直接相关。超参数调优的越好,得到的模型就越好。调优超参数可能是非常乏味和困难的,更像是一门艺术而不是科学。

超参数

超参数是在建立模型时用于控制算法行为的参数。这些参数不能从常规训练过程中获得。在对模型进行训练之前,需要对它们进行赋值。

超参数的简单列表

内容

  1. 传统的手工调参

  2. 网格搜索

  3. 随机搜索

  4. 贝叶斯搜索

传统手工搜索

在传统的调参过程中,我们通过训练算法手动检查随机超参数集,并选择符合我们目标的最佳参数集。

我们看看代码:

#importing required libraries
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.model_selection import KFold , cross_val_score
from sklearn.datasets import load_winewine = load_wine()
X = wine.data
y = wine.target#splitting the data into train and test set
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.3,random_state = 14)#declaring parameters grid
k_value = list(range(2,11))
algorithm = ['auto','ball_tree','kd_tree','brute']
scores = []
best_comb = []
kfold = KFold(n_splits=5)#hyperparameter tunning
for algo in algorithm:for k in k_value:knn = KNeighborsClassifier(n_neighbors=k,algorithm=algo)results = cross_val_score(knn,X_train,y_train,cv = kfold)print(f'Score:{round(results.mean(),4)} with algo = {algo} , K = {k}')scores.append(results.mean())best_comb.append((k,algo))best_param = best_comb[scores.index(max(scores))]
print(f'\nThe Best Score : {max(scores)}')
print(f"['algorithm': {best_param[1]} ,'n_neighbors': {best_param[0]}]")

缺点

  1. 没办法确保得到最佳的参数组合。

  2. 这是一个不断试错的过程,所以,非常的耗时。

2. 网格搜索

网格搜索是一种基本的超参数调优技术。它类似于手动调优,为网格中指定的所有给定超参数值的每个排列构建模型,评估并选择最佳模型。考虑上面的例子,其中两个超参数 k_value =[2,3,4,5,6,7,8,9,10] & algorithm =[ auto , ball_tree , kd_tree ,brute ],在这个例子中,它总共构建了9*4 = 36不同的模型。

让我们来了解一下sklearn的GridSearchCV是如何工作的:

from sklearn.model_selection import GridSearchCVknn = KNeighborsClassifier()
grid_param = { 'n_neighbors' : list(range(2,11)) , 'algorithm' : ['auto','ball_tree','kd_tree','brute'] }grid = GridSearchCV(knn,grid_param,cv = 5)
grid.fit(X_train,y_train)#best parameter combination
grid.best_params_#Score achieved with best parameter combination
grid.best_score_#all combinations of hyperparameters
grid.cv_results_['params']#average scores of cross-validation
grid.cv_results_['mean_test_score']

缺点

由于它尝试了超参数的每一个组合,并根据交叉验证得分选择了最佳组合,这使得GridsearchCV非常慢。

3. 随机搜索

使用随机搜索代替网格搜索的动机是,在许多情况下,所有的超参数可能不是同等重要的。随机搜索从超参数空间中随机选择参数组合,参数由n_iter给定的固定迭代次数的情况下选择。实验证明,随机搜索的结果优于网格搜索。

让我们来了解sklearn的RandomizedSearchCV是如何工作的:

from sklearn.model_selection import RandomizedSearchCVknn = KNeighborsClassifier()grid_param = { 'n_neighbors' : list(range(2,11)) , 'algorithm' : ['auto','ball_tree','kd_tree','brute'] }rand_ser = RandomizedSearchCV(knn,grid_param,n_iter=10)
rand_ser.fit(X_train,y_train)#best parameter combination
rand_ser.best_params_#score achieved with best parameter combination
rand_ser.best_score_#all combinations of hyperparameters
rand_ser.cv_results_['params']#average scores of cross-validation
rand_ser.cv_results_['mean_test_score']

缺点

随机搜索的问题是它不能保证给出最好的参数组合。

4. 贝叶斯搜索

贝叶斯优化属于一类优化算法,称为基于序列模型的优化(SMBO)算法。这些算法使用先前对损失 f 的观察结果,以确定下一个(最优)点来抽样 f。该算法大致可以概括如下。

  1. 使用先前评估的点 X 1:n,计算损失 f 的后验期望。

  2. 在新的点 X 的抽样损失 f,从而最大化f的期望的某些方法。该方法指定 f 域的哪些区域最适于抽样。

重复这些步骤,直到满足某些收敛准则。

让我们用scikit- optimization的BayesSearchCV来理解。

Installation: pip install scikit-optimize

from skopt import BayesSearchCVimport warnings
warnings.filterwarnings("ignore")# parameter ranges are specified by one of below
from skopt.space import Real, Categorical, Integerknn = KNeighborsClassifier()
#defining hyper-parameter grid
grid_param = { 'n_neighbors' : list(range(2,11)) , 'algorithm' : ['auto','ball_tree','kd_tree','brute'] }#initializing Bayesian Search
Bayes = BayesSearchCV(knn , grid_param , n_iter=30 , random_state=14)
Bayes.fit(X_train,y_train)#best parameter combination
Bayes.best_params_#score achieved with best parameter combination
Bayes.best_score_#all combinations of hyperparameters
Bayes.cv_results_['params']#average scores of cross-validation
Bayes.cv_results_['mean_test_score']

另一个实现贝叶斯搜索的类似库是bayesian-optimization

Installation: pip install bayesian-optimization

缺点

要在2维或3维的搜索空间中得到一个好的代理曲面需要十几个样本,增加搜索空间的维数需要更多的样本。

总结

在确定参数的最佳组合的保证和计算时间之间总是存在权衡。如果超参数空间(超参数个数)非常大,则使用随机搜索找到超参数的潜在组合,然后在该局部使用网格搜索(超参数的潜在组合)选择最优特征。

- END -

如果觉得有用,就请分享到朋友圈吧!

点个在看 paper不断!

机器学习中四种调参方法总结相关推荐

  1. Xgboost回归四种调参方法及Python简单实现

    前言 Xgboost对特征工程和数据处理比较友好,相比之下调参成为用好Xgboost重要的一环,本文分别从参数.调参方法.Python实现的维度进行梳理,作为调参思路的记录. 本文将关注以下几个问题: ...

  2. 机器学习四种调参方法总结

    介绍 维基百科上说,"Hyperparameter optimization或tuning是为学习算法选择一组最优的hyperparameters的问题". 本文转载于收藏 | 机 ...

  3. 【PID控制】几种调参方法的比较 (含计算代码)

    ⭐⭐几种整定方法总结(含参数计算代码)⭐⭐ PID 参数整定方法 临界比例度法 (Ziegle-Nichols算法 齐格勒尼科尔斯整定方法) 适用条件 主要原理 PID控制器类型的选择 开环阶跃响应曲 ...

  4. LayoutInflater中四种类型inflate方法的介绍

    第一种: public View inflate (int resource, ViewGroup root) resource : View 的 layout 的 ID root :如果返回 nul ...

  5. Unity中四种倒计时实现方法

    目录 Time.time:可以直接执行(适用于先执行在等待,且不固定时间) Time.deltaTime:适用于先等待在执行,且不固定时间 InvokeRepeating:适用于固定时间重复执行(与C ...

  6. 微弱信号检测中四种降噪滤波方法的matlab实现

    用Matlab实现4种滤波降噪处理算法,信号为正弦信号叠加上白噪声,参数可自主定制. %matlab clear all;clc; fs=300; Time=128; t=0:1/fs:Time; f ...

  7. 手把手系列—风控模型的调参方法和实际应用

    序言: 大数据时代的风控体系必有模型部分的参与,用策略贯穿整个风控体系,以数据为驱动,模型一定是标配内容.于是在模型的建设上,如何精细化地输出一套有效的模型,就是在精细化管理上非常重要的一个差异点.不 ...

  8. Python的数据分析中超参数调优方法:网格搜索

    [小白从小学Python.C.Java] [Python全国计算机等级考试] [Python数据分析考试必会题] ● 标题与摘要 Python的数据分析中 超参数调优方法:网格搜索 ● 选择题 以下说 ...

  9. java中高效遍历list_Java中四种遍历List的方法总结(推荐)

    实例如下: package com.ietree.basic.collection.loop; import java.util.ArrayList; import java.util.Iterato ...

最新文章

  1. 两个jQuery冲突了怎么办
  2. opengl微发展理解
  3. 从零开始配置服务器密码机的开发环境
  4. sketch里的ios控件_使用Sketch建立Design System
  5. java date.from_java datefromat
  6. 时隔两年,盘点ECCV 2018影响力最大的20篇论文
  7. 【无人机】他把死去的猫做成无人机,网友愤怒了!
  8. 宅在家里写数据库中事务(ACID)
  9. 2016-Fiddler
  10. cacti监控mysql
  11. PowerBuilder 9日历控件展示,下载(附带源码)2
  12. 【Java基础】· 面向对象编程(下)习题详解
  13. android8.0内置壁纸,一加手机8pro内置壁纸分享
  14. SAP-ABAP-OOALV进阶-子屏幕;各种方法示例;
  15. 以自己的电脑作为服务器,搭建网站,外网可访问
  16. 章节十二:编程思维:如何debug
  17. 【Arduino基础】一位数码管实验
  18. 从0基础开发搜索引擎(一)-----实战项目
  19. 审稿周期较快的SCI期刊总结:人工智能,神经网络,CV
  20. adblockplus过滤规则(适用ss自定义pac文件)

热门文章

  1. hdu 3664 1~n排列(aii ) 为k个数
  2. Matlab与线性代数 -- 矩阵的右除
  3. TOPSIS算法及代码
  4. 腾讯国风AI虚拟人学会作诗书法,背靠开源模型SongNet
  5. CSDN插件限时内测,新用户抢永久免费去广告特权!
  6. 破局传统算法痛点,腾讯安全首提基于跨模态检索的二进制代码-源代码匹配
  7. 网友:Java岗,自学一个月跳槽计算机视觉!附学习资源合集
  8. 十年磨一剑,可重构计算架构将引领未来芯片市场
  9. 图解LSTM与GRU单元的各个公式和区别
  10. 算法 | 动画+解析,轻松理解「Trie树」