机器学习4个常用超参数调试方法!
↑↑↑关注后"星标"Datawhale
每日干货 & 每月组队学习,不错过
Datawhale干货
作者:Sivasai,来源:AI公园
导读
ML工作流中最困难的部分之一是为模型找到最好的超参数。ML模型的性能与超参数直接相关。
介绍
维基百科上说,“Hyperparameter optimization或tuning是为学习算法选择一组最优的hyperparameters的问题”。
ML工作流中最困难的部分之一是为模型找到最好的超参数。ML模型的性能与超参数直接相关。超参数调优的越好,得到的模型就越好。调优超参数可能是非常乏味和困难的,更像是一门艺术而不是科学。
超参数
超参数是在建立模型时用于控制算法行为的参数。这些参数不能从常规训练过程中获得。在对模型进行训练之前,需要对它们进行赋值。
超参数的简单列表
内容
传统的手工调参
网格搜索
随机搜索
贝叶斯搜索
1. 传统手工搜索
在传统的调参过程中,我们通过训练算法手动检查随机超参数集,并选择符合我们目标的最佳参数集。
我们看看代码:
#importing required libraries
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.model_selection import KFold , cross_val_score
from sklearn.datasets import load_winewine = load_wine()
X = wine.data
y = wine.target#splitting the data into train and test set
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.3,random_state = 14)#declaring parameters grid
k_value = list(range(2,11))
algorithm = ['auto','ball_tree','kd_tree','brute']
scores = []
best_comb = []
kfold = KFold(n_splits=5)#hyperparameter tunning
for algo in algorithm:for k in k_value:knn = KNeighborsClassifier(n_neighbors=k,algorithm=algo)results = cross_val_score(knn,X_train,y_train,cv = kfold)print(f'Score:{round(results.mean(),4)} with algo = {algo} , K = {k}')scores.append(results.mean())best_comb.append((k,algo))best_param = best_comb[scores.index(max(scores))]
print(f'\nThe Best Score : {max(scores)}')
print(f"['algorithm': {best_param[1]} ,'n_neighbors': {best_param[0]}]")
缺点:
没办法确保得到最佳的参数组合。
这是一个不断试错的过程,所以,非常的耗时。
2. 网格搜索
网格搜索是一种基本的超参数调优技术。它类似于手动调优,为网格中指定的所有给定超参数值的每个排列构建模型,评估并选择最佳模型。考虑上面的例子,其中两个超参数k_value =[2,3,4,5,6,7,8,9,10] & algorithm =[' auto ', ' ball_tree ', ' kd_tree ', ' brute '],在这个例子中,它总共构建了9*4 = 36不同的模型。
让我们来了解一下sklearn的GridSearchCV
是如何工作的:
from sklearn.model_selection import GridSearchCVknn = KNeighborsClassifier()
grid_param = { 'n_neighbors' : list(range(2,11)) , 'algorithm' : ['auto','ball_tree','kd_tree','brute'] }grid = GridSearchCV(knn,grid_param,cv = 5)
grid.fit(X_train,y_train)#best parameter combination
grid.best_params_#Score achieved with best parameter combination
grid.best_score_#all combinations of hyperparameters
grid.cv_results_['params']#average scores of cross-validation
grid.cv_results_['mean_test_score']
缺点:
由于它尝试了超参数的每一个组合,并根据交叉验证得分选择了最佳组合,这使得GridsearchCV非常慢。
3. 随机搜索
使用随机搜索代替网格搜索的动机是,在许多情况下,所有的超参数可能不是同等重要的。随机搜索从超参数空间中随机选择参数组合,参数由n_iter给定的固定迭代次数的情况下选择。实验证明,随机搜索的结果优于网格搜索。
让我们来了解sklearn的RandomizedSearchCV
是如何工作的,
from sklearn.model_selection import RandomizedSearchCVknn = KNeighborsClassifier()grid_param = { 'n_neighbors' : list(range(2,11)) , 'algorithm' : ['auto','ball_tree','kd_tree','brute'] }rand_ser = RandomizedSearchCV(knn,grid_param,n_iter=10)
rand_ser.fit(X_train,y_train)#best parameter combination
rand_ser.best_params_#score achieved with best parameter combination
rand_ser.best_score_#all combinations of hyperparameters
rand_ser.cv_results_['params']#average scores of cross-validation
rand_ser.cv_results_['mean_test_score']
缺点:
随机搜索的问题是它不能保证给出最好的参数组合。
4. 贝叶斯搜索
贝叶斯优化属于一类优化算法,称为基于序列模型的优化(SMBO)算法。这些算法使用先前对损失f的观察结果,以确定下一个(最优)点来抽样f。该算法大致可以概括如下。
使用先前评估的点X1*:n*,计算损失f的后验期望。
在新的点X的抽样损失f,从而最大化f的期望的某些方法。该方法指定f域的哪些区域最适于抽样。
重复这些步骤,直到满足某些收敛准则。
让我们用scikit- optimization的BayesSearchCV
来理解这
Installation: pip install scikit-optimize
from skopt import BayesSearchCVimport warnings
warnings.filterwarnings("ignore")# parameter ranges are specified by one of below
from skopt.space import Real, Categorical, Integerknn = KNeighborsClassifier()
#defining hyper-parameter grid
grid_param = { 'n_neighbors' : list(range(2,11)) , 'algorithm' : ['auto','ball_tree','kd_tree','brute'] }#initializing Bayesian Search
Bayes = BayesSearchCV(knn , grid_param , n_iter=30 , random_state=14)
Bayes.fit(X_train,y_train)#best parameter combination
Bayes.best_params_#score achieved with best parameter combination
Bayes.best_score_#all combinations of hyperparameters
Bayes.cv_results_['params']#average scores of cross-validation
Bayes.cv_results_['mean_test_score']
另一个实现贝叶斯搜索的类似库是bayesian-optimization
。
Installation: pip install bayesian-optimization
缺点:
要在2维或3维的搜索空间中得到一个好的代理曲面需要十几个样本,增加搜索空间的维数需要更多的样本。
总结
在确定参数的最佳组合的保证和计算时间之间总是存在权衡。如果超参数空间(超参数个数)非常大,则使用随机搜索找到超参数的潜在组合,然后在该局部使用网格搜索(超参数的潜在组合)选择最优特征。
“干货学习,点赞三连↓
机器学习4个常用超参数调试方法!相关推荐
- 韵乐x5最佳参数手动_机器学习 4 个常用超参数调试方法!
作者:Sivasai,来源:AI公园 导读 ML工作流中最困难的部分之一是为模型找到最好的超参数.ML模型的性能与超参数直接相关. 介绍 维基百科上说,"Hyperparameter opt ...
- 机器学习 4 个常用超参数调试方法!
作者:Sivasai,来源:AI公园 导读 ML工作流中最困难的部分之一是为模型找到最好的超参数.ML模型的性能与超参数直接相关. 介绍 维基百科上说,"Hyperparameter opt ...
- 全网最全:机器学习算法模型自动超参数优化方法汇总
什么是超参数? 学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,我们称为参数(Parameter).还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,我们称为超参数(Hyper ...
- 【机器学习】算法模型自动超参数优化方法
什么是超参数? 学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,我们称为参数(Parameter).还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,我们称为超参数(Hyper ...
- 模型效果差?我建议你掌握这些机器学习模型的超参数优化方法
模型优化是机器学习算法实现中最困难的挑战之一.机器学习和深度学习理论的所有分支都致力于模型的优化. 机器学习中的超参数优化旨在寻找使得机器学习算法在验证数据集上表现性能最佳的超参数.超参数与一般模型参 ...
- 02.改善深层神经网络:超参数调试、正则化以及优化 W2.优化算法(作业:优化方法)
文章目录 1. 梯度下降 2. mini-Batch 梯度下降 3. 动量 4. Adam 5. 不同优化算法下的模型 5.1 Mini-batch梯度下降 5.2 带动量的Mini-batch梯度下 ...
- 机器学习模型评估与超参数调优详解
↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 作者:李祖贤 深圳大学,Datawhale高校群成员 机器学习分为两类 ...
- 深度学习笔记第二门课 改善深层神经网络 第三周 超参数调试、Batch正则化和程序框架...
本文是吴恩达老师的深度学习课程[1]笔记部分. 作者:黄海广[2] 主要编写人员:黄海广.林兴木(第四所有底稿,第五课第一二周,第三周前三节).祝彦森:(第三课所有底稿).贺志尧(第五课第三周底稿). ...
- 02.改善深层神经网络:超参数调试、正则化以及优化 W1.深度学习的实践层面
文章目录 1. 训练,验证,测试集 2. 偏差,方差 3. 机器学习基础 4. 正则化 5. 为什么正则化预防过拟合 6. dropout(随机失活)正则化 7. 理解 dropout 8. 其他正则 ...
最新文章
- fiddler 在火狐(firefox)下无效的问题 ——Fiddler监听Firefox、Chrome中的http请求
- oracle 创建数据库 表空间 用户 授权和toad导入导出数据库
- 如何成为一名软件架构师?
- [转载]ASP.NET开发经验积累
- 《网易编程题》买苹果
- 8a 中断 传感器采集_加速度传感器的安装,你get了吗
- 商汤科技回应“IPO推迟”:“被”IPO,还“被”推迟了
- mysql 5.1升级windows_怎么在Windows下升级MySQL
- makeObjectsPerformSelector 方法的用法
- 2017年10月份计算机网络管理,2017年下半年网络管理员考试上午试题及答案
- 学习OpenCV3:判断两条直线相交,并计算交点和夹角
- 3D相机成像原理简介
- Excel常用函数及操作_脑图
- XP连接网络计算机未启动服务,网络不存在或尚未启动/以及局域网互访的解决办法...
- 论文公式编号右对齐_毕业论文详细排版,看这一篇就够了!
- 基于Flutter的m3u8下载器
- 室内定位常用方法总结
- 【SDCC 2016现场】数据库/大数据技术实战专场实录(下)
- 使用jwt方式的接口访问
- java画笑脸_canvas画笑脸
热门文章
- 循环语句——7月23日
- AngularJs $resource 高大上的数据交互
- JDE函数--GetUDC(B函数)
- 破一个行业ERP的感想
- 刻意练习:LeetCode实战 -- Task20. 对称二叉树
- Matlab与线性代数 -- 对角矩阵
- 轻松抓鸡蛋、剪纸、夹芯片,这只“机械爪”堪比人手!
- 遏制企业数据泄露之殇,大咖切磋云安全的攻防之道
- 提气!清华成立集成电路学院,专研“卡脖子”技术
- ​对标GPT-3、AlphaFold,智源研究院发布超大规模智能模型系统“悟道1.0”