sklearn 交叉验证与参数寻优
3.3. Model evaluation: quantifying the quality of predictions — scikit-learn 0.19.2 documentation
- sklearn.model_selection 模型评估支持的metric
- Classification:accuracy/average_precision/f1/f1_micro/f1_macro/f1_weighted/f1_samples/neg_log_loss/precision/recall/roc_auc
- Clustering:adjusted_mutual_info_score/adjusted_rand_score/completeness_score/fowlkes_mallows_score/homogeneity_score/mutual_info_score/normalized_mutual_info_score/v_measure_score
- Regression:explained_variance/neg_mean_absolute_error/neg_mean_squared_error/neg_mean_squared_log_error/neg_median_absolute_error/r2
1. 交叉验证
sklearn.cross_validation ⇒ 新版的 sklearn 已将其移步至 sklearn.model_selection
cv: cross_validation,交叉验证
KFold 与 StratifiedKFold
from sklearn.model_selection import StratifiedKFold from sklearn.model_selection import KFold
StratifiedKFold 是改进升级版的 KFold 方法,两者实现上的区别,根据二者的接口便知,
class sklearn.model_selection.KFold(n, n_folds=3, shuffle=False, random_state=None)# 一般取 n == len(y)# 也即根据长度进行split# 不考虑class distribution class sklearn.model_selection.StratifiedKFold(y, n_folds=3, shuffle=False, random_state=None)
cross_val_score
- 参数:
cv=10, scoring='neg_mean_squared_error'
alphas = np.logspace(-3, 2, 50) test_scores = [] for alpha in alphas:clf = Ridge(alpha)test_score = np.sqrt(-cross_val_score(clf, X_train, y_train, cv=10, scoring='neg_mean_squared_error'))test_scores.append(np.mean(test_score))
- 参数:
2. 参数寻优
网格搜索:GridSearchCV
- http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html
svm + GridSearchCV 为例:
iris = datasets.load_iris() svc = svm.SVC() parameters = {'kernel':('linear', 'rbf'), 'C':[1, 10]}# 以字典构建参数集合,最终组合出来的参数有 4 种(2*2); clf = GridSearchCV(svc, parameters) clf.fit(iris.data, iris.target)for k, v in clf.cv_results_.items():print(k, v)
sklearn 交叉验证与参数寻优相关推荐
- 【超参数寻优】交叉验证(Cross Validation)超参数寻优的python实现:单一参数寻优
[超参数寻优]交叉验证(Cross Validation)超参数寻优的python实现:单一参数寻优 一.交叉验证的意义 二.常用的交叉验证方法 1.Hold one method 2.K-flod ...
- 自定义函数使用GridSearchCV参数寻优
自定义函数使用GridSearchCV参数寻优 GirdSearchCV and RandomizedSearchCV 自定义函数中使用GirdSearchCV GridSearchCV参数说明 Gr ...
- 【超参数寻优】交叉验证(Cross Validation)超参数寻优的python实现:多参数寻优
[超参数寻优]交叉验证(Cross Validation)超参数寻优的python实现:多参数寻优 一.网格搜索原理 二.网格搜索+交叉验证用于多参数寻优的python实现 1.训练模型及待寻优参数 ...
- R语言caret包构建xgboost模型实战:特征工程(连续数据离散化、因子化、无用特征删除)、配置模型参数(随机超参数寻优、10折交叉验证)并训练模型
R语言caret包构建xgboost模型实战:特征工程(连续数据离散化.因子化.无用特征删除).配置模型参数(随机超参数寻优.10折交叉验证)并训练模型 目录
- python中算法(sklearn)的最优超参数寻优:skopt贝叶斯搜索
python中算法(sklearn)的最优超参数寻优:skopt贝叶斯搜索 Jeff Dean在ICML 2019上进行了有关AutoML的演讲,并将自动化分为4个级别 手动构造预测变量,不引入学习的 ...
- python svm超参数_grid search 超参数寻优
http://scikit-learn.org/stable/modules/grid_search.html 1. 超参数寻优方法 gridsearchCV 和 RandomizedSearchC ...
- Keras训练神经网络进行分类并使用GridSearchCV进行参数寻优
Keras训练神经网络进行分类并使用GridSearchCV进行参数寻优 在机器学习模型中,需要人工选择的参数称为超参数.比如随机森林中决策树的个数,人工神经网络模型中隐藏层层数和每层的节点个数,正则 ...
- 【超参数寻优】量子粒子群算法(QPSO) 超参数寻优的python实现
[超参数寻优]量子粒子群算法(QPSO) 超参数寻优的python实现 一.粒子群算法的缺点 二.量子粒子群算法 三.QPSO算法的python实现 参考资料 一.粒子群算法的 ...
- MATLAB中使用LIBSVM进行SVM参数寻优
MATLAB中使用LIBSVM进行SVM参数寻优 一些资源网站 配置 svmtrain svmParams -t:表示选择的核函数类型 -g为核函数的参数系数 -c为惩罚因子系数 -v为交叉验证的数, ...
最新文章
- 5G NGC — PCC 策略与计费控制框架
- Linux Rootkit 系列四:对于系统调用挂钩方法的补充
- JDK1.8源码阅读系列之二:LinkedList
- 深入Atlas系列:客户端网络访问基础结构示例(1) - 编写并使用自定义的WebRequestExecutor...
- 从零构建vue+webpack (一)
- C++ 面向对象程序三大特性之 继承
- VXLAN Ethernet Virtual Private Network集中式和分布式网关实验(华为设备)
- 【【★★★★★★CSS兼容IE6,IE7,FF的技巧 ★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★】】...
- 2021-03-04
- vector初始化必须设置大小么_C++ 序列式容器之vector
- python事件是什么意思_python 回调函数是什么意思
- 计算机网络图片大全,说说心情图片大全唯美
- 什么是混合移动App开发【重点学习系列---干货十足--一文详解】
- ARP断网攻击与监听
- 魔兽世界n 服服务器维护时段,魔兽世界N服人员撤离新N服 E服即将面临关闭
- 为什么说体验即设计?
- StoneTab标签页CAD插件 2.6.0
- JDK8之Optional
- 站在产业互联网爆发的风口,定推一折购跃上云端服务中小企业发展
- Shiro入门以及Shiro与web整合
热门文章
- Spark Streaming处理File Streams
- mysql select in 排序_MySQL数据库之Mysql select in 按id排序实现方法
- request中的技巧
- bc547可以用8050代换吗_逐本卸妆油没有化妆可以用吗
- 凸优化笔记(非常零碎)
- 快速排序算法实现:单向扫描法双向扫描法三分法(有相同元素)
- MPAA正在对BT下毒手,BT大站被警方关闭
- opencv基础:罗德里格斯旋转公式(Rodrigues' rotation formula)推导 rodrigues()函数原理
- java gpu hash_比特币 GPU 挖矿 Sha256 Hash实现(OpenCL)
- 吴恩达深度学习笔记(十一)—— dropout正则化