算法

数据结构

机器学习笔记——模型调参利器 GridSearchCV(网格搜索)参数的说明

GridSearchCV,它存在的意义就是自动调参,只要把参数输进去,就能给出最优化的结果和参数。但是这个方法适合于小数据集,一旦数据的量级上去了,很难得出结果。这个时候就是需要动脑筋了。数据量比较大的时候可以使用一个快速调优的方法——坐标下降。它其实是一种贪心算法:拿当前对模型影响最大的参数调优,直到最优化;再拿下一个影响最大的参数调优,如此下去,直到所有的参数调整完毕。这个方法的缺点就是可能会调到局部最优而不是全局最优,但是省时间省力,巨大的优势面前,还是试一试吧,后续可以再拿bagging再优化。

通常算法不够好,需要调试参数时必不可少。比如SVM的惩罚因子C,核函数kernel,gamma参数等,对于不同的数据使用不同的参数,结果效果可能差1-5个点,sklearn为我们提供专门调试参数的函数grid_search。

参数说明

class sklearn.model_selection.GridSearchCV(estimator, param_grid, scoring=None, fit_params=None, n_jobs=1, iid=True, refit=True, cv=None, verbose=0, pre_dispatch=‘2*n_jobs’, error_score=’raise’, return_train_score=’warn’)

(1)estimator

选择使用的分类器,并且传入除需要确定最佳的参数之外的其他参数。每一个分类器都需要一个scoring参数,或者score方法:estimator=RandomForestClassifier(min_samples_split=100,min_samples_leaf=20,max_depth=8,max_features='sqrt',random_state=10),

(2)param_grid

需要最优化的参数的取值,值为字典或者列表,例如:param_grid =param_test1,param_test1 = {'n_estimators':range(10,71,10)}。

(3)scoring=None

模型评价标准,默认None,这时需要使用score函数;或者如scoring='roc_auc',根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象,需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数。

(4)fit_params=None

(5)n_jobs=1

n_jobs: 并行数,int:个数,-1:跟CPU核数一致, 1:默认值

(6)iid=True

iid:默认True,为True时,默认为各个样本fold概率分布一致,误差估计为所有样本之和,而非各个fold的平均。

(7)refit=True

默认为True,程序将会以交叉验证训练集得到的最佳参数,重新对所有可用的训练集与开发集进行,作为最终用于性能评估的最佳模型参数。即在搜索参数结束后,用最佳参数结果再次fit一遍全部数据集。

(8)cv=None

交叉验证参数,默认None,使用三折交叉验证。指定fold数量,默认为3,也可以是yield训练/测试数据的生成器。

(9)verbose=0, scoring=None

verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每个子模型都输出。

(10)pre_dispatch=‘2*n_jobs’

指定总共分发的并行任务数。当n_jobs大于1时,数据将在每个运行点进行复制,这可能导致OOM,而设置pre_dispatch参数,则可以预先划分总共的job数量,使数据最多被复制pre_dispatch次

(11)error_score=’raise’

(12)return_train_score=’warn’

如果“False”,cv_results_属性将不包括训练分数

回到sklearn里面的GridSearchCV,GridSearchCV用于系统地遍历多种参数组合,通过交叉验证确定最佳效果参数。

目的

通过训练集的训练求出所需模型的最佳参数。

代码简单实现

import pandas as pd

from sklearn.model_selection import GridSearchCV,train_test_split

from sklearn.linear_model import LogisticRegression

from sklearn.metrics import precision_score,recall_score,f1_score,roc_auc_score,roc_curve

import matplotlib.pyplot as plt

import warnings

warnings.filterwarnings('ignore')#处理警告

data = pd.read_excel('文件路径')

data = pd.DataFrame(data)

X = data.iloc[:,:-1]

Y = data.iloc[:,-1]

trainx,testx,trainy,testy = train_test_split(X,Y,test_size=1/3,random_state=3)#random_state相当于随机种子

best_ting = {

'max_iter':[20,40,60,100],

'C':[0.01,0.1,1,10]

}

# 使用测试集对模型进行验证,并利用GridSearchCV技术对逻辑回归模型进行超参调优,

#网格搜索最优超参数

best_g = GridSearchCV(LogisticRegression(),best_ting,cv=5)

best_g.fit(trainx,trainy)

print(best_g.best_params_)#输出最优参数

best_model = LogisticRegression(max_iter=20,C=10)

best_model.fit(trainx,trainy)

best_H = best_model.predict(testx)

best_yH = best_model.predict_proba(testx)

# 并输出测试数据集的精确率、召回率、F1值、AUC值,画出ROC曲线

print('精准率:',precision_score(testy,best_H))

print('召回率:',recall_score(testy,best_H))

print('F1率:',f1_score(testy,best_H))

print('AUC:',roc_auc_score(testy,best_yH[:,-1]))

fpr,tpr,theta = roc_curve(testy,best_yH[:,-1])

print('fpr=n',fpr)

print('tpr=n',tpr)

print('theta=n',theta)

#画出ROC曲线

plt.plot(fpr,tpr)

plt.show()

关于sklearn.metrics.roc_curve()

主要用来计算ROC面积的

''

sklearn.metrics.roc_curve(y_true, y_score, pos_label=None, sample_weight=None, drop_intermediate=True)

输入:其中y_true为真实标签,y_score为预测概率,或称为置信度。pos_label为正类样本标签,一般为1。

输出:fpr(假正率、1-特效性)、tpr(真正率、灵敏度)、thresholds(阈值)

假正率 = 预测为正类的负样本/所有负类样本,越小越好。

真正率 = 预测为正类的正样本/所有正类样本,越大越好。

'''

#这个还有些不理解,在学习中..

修改于2019-07-1219:28:34

仝渊涛

内容来源于网络,如有侵权请联系客服删除

python网格搜索核函数_机器学习笔记——模型调参利器 GridSearchCV(网格搜索)参数的说明...相关推荐

  1. 随机森林调参_机器学习-模型调参利器 gridSearchCV(网格搜索)

    在机器学习模型中,需要人工选择的参数称为超参数.比如随机森林中决策树的个数,人工神经网络模型中隐藏层层数和每层的节点个数,正则项中常数大小等等,他们都需要事先指定.超参数选择不恰当,就会出现欠拟合或者 ...

  2. 机器学习(四)——模型调参利器 gridSearchCV(网格搜索) scoring的

    如果是None,则使用estimator的误差估计函数 (3)       scoring=None 模型评价标准,默认None,这时需要使用score函数:或者如scoring='roc_auc', ...

  3. 模型调参利器--hyperopt

    一.前言 在机器学习中,模型的训练需要花费大量的时间.而每一个算法在训练前都需要配置数量不一的超参数,参数对训练结果的影响相当大. 因此,超参数的优化是一件相当重要,却又费时费力的事. Hyperop ...

  4. 决策树对鸢尾花数据两特征组合分类python代码的结果_机器学习笔记-决策树

    在看决策树之前,先看下之前说过的逻辑回归 上图为判断是否要交往的逻辑回归算法图 把身高,财富,颜值分别与w1,w2,w3相乘求和得到一个结果. (其中w1为高的权重,如果比较在意身高,那么w1就会偏大 ...

  5. android 模糊查询下拉菜单,android 模糊查询搜索框_基于心智模型,解析蜻蜓Fm「搜索」功能...

    本文以心智模型为理论依据,分析了蜻蜓Fm[搜索]功能的用户操作路径以及app设计. 最近在做搜索相关的改版设计工作,以下是我在体验现有搜索逻辑的情况下,产生的一些想法: 对于搜索这个功能,用户到底是怎 ...

  6. Scikit-Learn 机器学习笔记 -- 模型训练

    Scikit-Learn 机器学习笔记 – 模型训练 参考文档: handson-ml import numpy as np from matplotlib import pyplot as plt# ...

  7. 2、机器学习中的调参:随机搜索和网格搜索

    机器学习中的调参 前言 1.随机搜索 2. 网格搜索 前言 超参数调优是机器学习中的重要一环,拿随机森林算法而言,树的个数,数的深度,剪枝参数等等需要找到最优的参数组合,超参数较少时,我们可以采用fo ...

  8. Lesson 6.5Lesson 6.6.1Lesson 6.6.2 机器学习调参基础理论与网格搜索多分类评估指标的macro与weighted过程GridSearchCV的进阶使用方法

    Lesson 6.5 机器学习调参基础理论与网格搜索 在上一小节执行完手动调参之后,接下来我们重点讨论关于机器学习调参的理论基础,并且介绍sklearn中调参的核心工具--GridSearchCV. ...

  9. DL之模型调参:深度学习算法模型优化参数之对深度学习模型的超参数采用网格搜索进行模型调优(建议收藏)

    DL之模型调参:深度学习算法模型优化参数之对深度学习模型的超参数采用网格搜索进行模型调优(建议收藏) 目录 神经网络的参数调优 1.神经网络的通病-各种参数随机性 2.评估模型学习能力

最新文章

  1. linux0.11内核编译,编译Linux-0.11内核
  2. 2018人工智能期末考试复习资料(一):学术篇
  3. 微软Workflow Foundation 高阶透视
  4. Python 线性回归
  5. 小程序提交表单mysql_GitHub - kun19911227/minipro: 微信小程序提交带图片的表单
  6. currenthashmap如何实现线程安全_什么是多线程?如何实现多线程?
  7. Golang中各种永远阻塞的方法
  8. Android 驱动(10)----设备树(二)linux内核顶层am335x-evm.dts
  9. 【二分】【中等难度】noip模拟赛 聪哥的工资
  10. 如何用MathType快速输入公式
  11. 微软从 Engine Yard 手中收购容器平台 Deis
  12. 阿里聚合直播盒子APP源码™ AlijuheCMS Build Demo 20190206
  13. 【学习笔记】人体姿态识别
  14. 一张图讲清楚产品架构,手把手教你画产品框架图
  15. 留学目的地选择之伊利诺伊州
  16. android 自定义控件 书籍,android整理之自定义控件
  17. 32位系统为什么又叫x86系统呢?
  18. ITX迷你主机的优点及缺点
  19. Linux与ISCSI
  20. alexa是什么_Alexa的简要模式是什么?如何打开(或关闭)它?

热门文章

  1. 【Python】itertools之product函数
  2. git 代码强行提交
  3. [洛谷P4726]【模板】多项式指数函数
  4. 利用推送测试工具,测试推送是否写好
  5. 二分查找(等于x,小于x,小于等于x,大于x,大于等于x )
  6. 和 Houdini, CSS Paint API 打个招呼吧
  7. 2017年第10批 手机号正则表达式
  8. darwin转发时,摄像机在3G和4G模式下的参数设置
  9. [转]oracle中查询指定行数的记录
  10. C# 泛型编程学习总结