sklearn kfold_sklearn函数:cross_val_score(交叉验证评分)
sklearn.model_selection.cross_val_score
(estimator,X,y=None,*,groups=None,scoring=None,cv=None,n_jobs=None,verbose=0,fit_params=None,pre_dispatch='2*n_jobs',error_score=nan)
前面我们提到了4种分割数据集的方法,在分割完数据集后,我们训练模型,那模型的表现到底如何呢?我们可以使用这个函数来看模型的评分。
- estimator:estimator object implementing ‘fit’
我们的算法模型
- X:array-like of shape (n_samples, n_features)
- y:array-like of shape (n_samples,) or (n_samples, n_outputs), default=None
我们的数据集
- cv:int, cross-validation generator or an iterable, default=None
我们要进行的交叉验证的方法
几个常用的参数如上所示,下面,我们举几个小栗子。
- KFold
关于KFold参考:
橘猫吃不胖:sklearn函数:KFold(分割训练集和测试集)zhuanlan.zhihu.com
对于K折交叉验证, K的取值,通常为3、5、10
import pandas as pd
import numpy as npnames = ['preg','plas','pres','skin','test','mass','pedi','age','class']
df = pd.read_csv('data/pima-indians-diabetes.csv' , names=names)
df.head(10)
X = df.values[:,:8]
y = df.values[:,8]from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegressionkfold = KFold(n_splits=10)
model = LogisticRegression()
result = cross_val_score(model , X , y , cv=kfold)
最后的result,就是我们每一次模型的得分(准确率)
这里,我们调用KFold,设置K=10,也就是会分割为10分子集,然后去遍历调用模型
这里,我们使用的是逻辑回归模型
2. LeaveOneOut
关于LeaveOneOut,参考:
橘猫吃不胖:sklearn函数:LeaveOneOut(分割训练集和测试集)zhuanlan.zhihu.com
同样使用上面的数据集
from sklearn.model_selection import LeaveOneOutloocv = LeaveOneOut()
model = LogisticRegression(max_iter=1000)result = cross_val_score(model , X , y , cv=loocv)
resultresult.mean()
这个跑起来的确很慢,一开始结果都是0,1我还以为错了,啥情况,一想,因为留一法,就是遍历N次,每次的结果要么是对的,要么就是不对的,所以,可以看个平均的得分
sklearn kfold_sklearn函数:cross_val_score(交叉验证评分)相关推荐
- sklearn中的cross_val_score交叉验证
cross_val_score交叉验证 1.0 注意事项 1. 参数cv代表分成几折,其中cv-1折用于训练,1折用于测试 2. cv数值最大 = 数据集总量的1/3 3. 关于参数scoring:1 ...
- R语言使用caret包的train函数构建xgboost模型(基于linear算法)模型构建分类模型、trainControl函数设置交叉验证参数、自定义调优评估指标
R语言使用caret包的train函数构建xgboost模型(基于linear算法)模型构建分类模型.trainControl函数设置交叉验证参数.自定义调优评估指标.tuneLength参数和tun ...
- R语言使用caret包的train函数构建xgboost模型(基于gbtree算法)模型构建分类模型、trainControl函数设置交叉验证参数、自定义调优评估指标
R语言使用caret包的train函数构建xgboost模型(基于gbtree算法)模型构建分类模型.trainControl函数设置交叉验证参数.自定义调优评估指标.tuneLength参数和tun ...
- R语言使用caret包的train函数构建多项式核SVM模型(多项式核函数)模型构建分类模型、trainControl函数设置交叉验证参数、自定义调优评估指标
R语言使用caret包的train函数构建多项式核SVM模型(多项式核函数)模型构建分类模型.trainControl函数设置交叉验证参数.自定义调优评估指标.tuneLength参数和tuneGri ...
- R语言使用caret包的train函数构建xgboost模型(基于dart算法)模型构建分类模型、trainControl函数设置交叉验证参数、自定义调优评估指标
R语言使用caret包的train函数构建xgboost模型(基于dart算法)模型构建分类模型.trainControl函数设置交叉验证参数.自定义调优评估指标.tuneLength参数和tuneG ...
- R语言使用caret包的train函数构建惩罚判别分析模型(pda)构建分类模型、trainControl函数设置交叉验证参数、自定义调优评估指标
R语言使用caret包的train函数构建惩罚判别分析模型(pda)构建分类模型.trainControl函数设置交叉验证参数.自定义调优评估指标.tuneLength参数和tuneGrid参数超参数 ...
- python cross val score_sklearn函数:cross_val_score(交叉验证评分)
sklearn.model_selection.cross_val_score(estimator,X,y=None,*,groups=None,scoring=None,cv=None,n_jobs ...
- sklearn K折(KFold)交叉验证案例,展开细节代码与cross_validate简写
文章目录 一.通常的随机森林模型代码 二.K折交叉验证的随机森林代码 1. 切分方式:随机切分 2.切分方式:不均衡数据集下按比例切分 三.KFold的简便写法 四.随机森林预测与KFold交叉验证完 ...
- 使用libsvm中的svm_cross_validation函数进行交叉验证
from:https://blog.csdn.net/tao1107291820/article/details/51581322 在libsvm的使用中,为了得到更好的c.gama参数,可以通过多次 ...
- crossvalind函数 (交叉验证函数)
crossvalind是cross-valindation的缩写,意即交叉检验. 常用的形式有: ①Indices =crossvalind('Kfold', N, K) ②[Train, Tes ...
最新文章
- Java开发工具简介
- ALE IDoc RFC of SAP
- Ring3下Inline Hook API
- 《Windows Phone 8 Development Internals》读书笔记-1-1-连载
- (更新)网络规划设计师考试大纲 及教程_下载
- 6个最热门的IT技术职位,薪资都有多高?
- Visual Studio 11预览:DirectX和SharePoint特性
- windows下使用vim
- java用if怎么编程税收_Java - 使用If和if else语句的简单税计算器
- VS2010 调试C++项目 fatal error LNK1123 错误解决的方法
- 微信开发者工具历史版本下载
- 智慧风电 | 图扑软件数字孪生风机设备,3D 可视化智能运维
- 水苔可以种什么植物? 湖南水苔农业开发有限公司
- 【图解】给面试官解释TCP的三次握手与四次挥手-Web运用原理及网络基础
- 《一周搞定模电》—功率放大器
- OSG 添加文字(显示中英文)
- Java中字符流(FileReader(read、close)、FileWriter(write、close)、字符(输入、输出)流原理解析)
- HDU 5761 Rower Bo(物理)
- HTML5网站大观:15个精美的 HTML5 单页网站作品欣赏
- nvm You do not have sufficient privilege to perform this operation.