交叉验证(Cross Validation),有的时候也称作循环估计(Rotation Estimation),是一种统计学上将数据样本切割成较小子集的实用方法,该理论是由Seymour Geisser提出的。
在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和。这个过程一直进行,直到所有的样本都被预报了一次而且仅被预报一次。把每个样本的预报误差平方加和,称为PRESS(predicted Error Sum of Squares)。
常用的精度测试方法主要是交叉验证,例如10折交叉验证(10-fold cross validation),将数据集分成十份,轮流将其中9份做训练1份做验证,10次的结果的均值作为对算法精度的估计,一般还需要进行多次10折交叉验证求均值,例如:10次10折交叉验证,以求更精确一点。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次。


"""这里是正确的代码"""
def cross_10folds(data,folds,jiange,start_index,end_index):df_test=data[start_index*jiange:end_index*jiange]  #数据刚好可以做10折交叉验证。df_test_index=list(df_test.index)df_test_flag=data.index.isin(df_test_index)  #都转换为list来判定成员资格diff_flag = [not f for f in df_test_flag] # 不是df_test_flag里面的索引的索引记为df_train_index的索引集合df_train= data[diff_flag]return df_train,df_testpath='C:/Users/Administrator/Desktop/zhou1.csv'
columns1=['cid','side_effects']
import pandas as pd
#data=pd.read_csv(path)[:100]  #经验证划分完全正确
data=pd.read_csv(path)
data.columns=columns1
folds=10
jiange=int(data.shape[0]/folds)
#10次10折交叉验证的代码
for i in range(1,11):#将数据集随机打散data=data.sample(frac = 1) #随机打乱样本for i in range(1,folds+1):df_train,df_test=cross_10folds(data,folds,jiange,i-1,i) #起始和尾部索引df_train.to_csv('C:/Users/Administrator/Desktop/zhou/train_'+str(i)+'.csv',index=True,header=True) #检验对了再改成Falsedf_test.to_csv('C:/Users/Administrator/Desktop/zhou/test_'+str(i)+'.csv',index=True,header=True)

1.matlab版本代码实现:

%十折交叉验证\
[m,n]=size(train_bags);     %蛋白质的数量的个数
indices=crossvalind('Kfold',m,10);
temp_Hamming_Loss=zeros(1,10);
temp_Macro_F1=zeros(1,10);
temp_Micro_F1=zeros(1,10);
for k=1:1:10test=(indices==k);  %获取验证集,但是最后替换掉了train=~test;train_data=train_bags(train,:);   %训练集的包train_target=train_lable(:,train);  %训练集的标记test_bags=train_bags(test,:);          %十折交叉验证的测试集包test_target=train_lable(:,test);        %十折交叉验证的测试集标记

2.Python3版本代码实现:
2.1.简易5折交叉验证分割结果打印:未随机打散的情形下

#简易5折交叉验证分割结果打印:未随机打散的情形下
from sklearn.cross_validation import KFold
kf = KFold(150,n_folds=5, shuffle=False)
for eachfold in kf:print(eachfold,'=========') #kf是一个长度为5的list,list中的每个元素是一次10折交叉验证的划分结果。

5折交叉验证划分结果的前半部分是trainset,后半部分是testset

(array([ 30,  31,  32,  33,  34,  35,  36,  37,  38,  39,  40,  41,  42,43,  44,  45,  46,  47,  48,  49,  50,  51,  52,  53,  54,  55,56,  57,  58,  59,  60,  61,  62,  63,  64,  65,  66,  67,  68,69,  70,  71,  72,  73,  74,  75,  76,  77,  78,  79,  80,  81,82,  83,  84,  85,  86,  87,  88,  89,  90,  91,  92,  93,  94,95,  96,  97,  98,  99, 100, 101, 102, 103, 104, 105, 106, 107,108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120,121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,147, 148, 149]), array([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16,17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,26,  27,  28,  29,  60,  61,  62,  63,  64,  65,  66,  67,  68,69,  70,  71,  72,  73,  74,  75,  76,  77,  78,  79,  80,  81,82,  83,  84,  85,  86,  87,  88,  89,  90,  91,  92,  93,  94,95,  96,  97,  98,  99, 100, 101, 102, 103, 104, 105, 106, 107,108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120,121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,147, 148, 149]), array([30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46,47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,26,  27,  28,  29,  30,  31,  32,  33,  34,  35,  36,  37,  38,39,  40,  41,  42,  43,  44,  45,  46,  47,  48,  49,  50,  51,52,  53,  54,  55,  56,  57,  58,  59,  90,  91,  92,  93,  94,95,  96,  97,  98,  99, 100, 101, 102, 103, 104, 105, 106, 107,108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120,121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,147, 148, 149]), array([60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76,77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,26,  27,  28,  29,  30,  31,  32,  33,  34,  35,  36,  37,  38,39,  40,  41,  42,  43,  44,  45,  46,  47,  48,  49,  50,  51,52,  53,  54,  55,  56,  57,  58,  59,  60,  61,  62,  63,  64,65,  66,  67,  68,  69,  70,  71,  72,  73,  74,  75,  76,  77,78,  79,  80,  81,  82,  83,  84,  85,  86,  87,  88,  89, 120,121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,147, 148, 149]), array([ 90,  91,  92,  93,  94,  95,  96,  97,  98,  99, 100, 101, 102,103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115,116, 117, 118, 119]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,26,  27,  28,  29,  30,  31,  32,  33,  34,  35,  36,  37,  38,39,  40,  41,  42,  43,  44,  45,  46,  47,  48,  49,  50,  51,52,  53,  54,  55,  56,  57,  58,  59,  60,  61,  62,  63,  64,65,  66,  67,  68,  69,  70,  71,  72,  73,  74,  75,  76,  77,78,  79,  80,  81,  82,  83,  84,  85,  86,  87,  88,  89,  90,91,  92,  93,  94,  95,  96,  97,  98,  99, 100, 101, 102, 103,104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116,117, 118, 119]), array([120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132,133, 134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145,146, 147, 148, 149]))

2.2.随机打散数据并做10次10折交叉验证

# -*- coding: utf-8 -*-
import numpy as np
from sklearn import cross_validation
from sklearn import datasets
from sklearn import svm
iris = datasets.load_iris()
X=iris.data
Y=iris.targetdef tenFolds(X,Y):from sklearn.model_selection import StratifiedKFoldskf= StratifiedKFold(n_splits=10)from sklearn.cross_validation import cross_val_scoreclf = svm.SVC(kernel='linear', C=5)zhou=[]#shoushou=list(skf.split(X,Y)) #发现每一个都是tuple类型的数据for train_index,test_index in skf.split(X,Y):print('Train: ',train_index,'Test: ',test_index)X_train,X_test=X[train_index],X[test_index]Y_train,Y_test=Y[train_index],Y[test_index]v10=cross_val_score(clf,X_train,Y_train,cv=5).mean() zhou.append(v10)print('均值:',np.mean(zhou)) print('方差:',np.std(zhou)) return zhou,np.mean(zhou)+np.std(zhou)# X:features  Y:targets  cv:k
import pandas as pd
all_valid=[]
mean_var=[]
#做10次10折交叉验证结果分析
for i in range(1,11):df1=pd.DataFrame(X)df2=pd.DataFrame(Y)df3=pd.concat([df1,df2],axis=1)df3.columns=['f1','f2','f3','f4','label']df3=df3.sample(frac = 1) #随机打乱样本df3.index=range(150)X1=np.array(df3[['f1','f2','f3','f4']])Y1=np.array(df3['label'])zhou,vsd= tenFolds(X1,Y1)all_valid.append(zhou)mean_var.append(vsd)
np.mean(mean_var)

all_valid

[0.9777777777777776, 0.962962962962963, 0.962962962962963, 0.9703703703703702, 0.9703703703703702, 0.9703703703703702, 0.9777777777777779, 0.9555555555555555, 0.9555555555555555, 0.9703703703703702]
[0.9555555555555555, 0.9703703703703704, 0.962962962962963, 0.9555555555555555, 0.9703703703703704, 0.962962962962963, 0.9703703703703702, 0.9925925925925926, 0.9703703703703702, 0.9777777777777776]
[0.9703703703703704, 0.9777777777777779, 0.9555555555555555, 0.9703703703703704, 0.9703703703703704, 0.9481481481481481, 0.9703703703703704, 0.962962962962963, 0.962962962962963,0.9777777777777779]
[0.9703703703703702, 0.9703703703703702, 0.962962962962963, 0.9851851851851852, 0.962962962962963, 0.962962962962963,
0.9703703703703702, 0.9777777777777779, 0.9703703703703702, 0.9703703703703702]
[0.9777777777777779, 0.962962962962963, 0.9555555555555555, 0.962962962962963, 0.962962962962963, 0.9555555555555555,
0.9703703703703702, 0.9777777777777776, 0.9407407407407407, 0.9777777777777776]
[0.9481481481481481, 0.9703703703703704, 0.9777777777777779, 0.9407407407407409, 0.962962962962963, 0.9555555555555555, 0.9555555555555555, 0.962962962962963, 0.9703703703703702, 0.9851851851851852]
[0.9777777777777776, 0.9777777777777776, 0.9777777777777776, 0.9703703703703704, 0.9925925925925926, 0.9851851851851852, 0.9777777777777779, 0.9703703703703704, 0.9703703703703704, 0.9851851851851852]
[0.962962962962963, 0.9703703703703702, 0.9703703703703704, 0.962962962962963, 0.9703703703703702, 0.9777777777777779, 0.9481481481481481, 0.9555555555555555, 0.9481481481481481, 0.9555555555555557]
[0.962962962962963, 0.9703703703703702, 0.9555555555555555, 0.9703703703703704, 0.9703703703703702, 0.962962962962963, 0.9703703703703702, 0.962962962962963, 0.9555555555555555,
0.962962962962963]
[0.9703703703703702, 0.962962962962963, 0.9555555555555555, 0.962962962962963, 0.9703703703703702, 0.9703703703703702, 0.9777777777777779, 0.9851851851851852, 0.9777777777777779, 0.9703703703703702]

mean_var

0.9749615103905077
0.9792592592592592
0.9755863663546611
0.9769957569703696
0.975823919626472
0.9757929689449547
0.9855066526904122
0.9718518518518519
0.9699876405729984
0.9784847786297061

分层交叉验证和不平衡数据集的处理:
https://blog.csdn.net/asialee_bird/article/details/83714612
Python smote例程:使用sklearn的make_classification生成不平衡数据样本
https://blog.csdn.net/levy_cui/article/details/86707049

10折交叉验证深入理解相关推荐

  1. 机器学习 - 随机森林手动10 折交叉验证

    随机森林的 10 折交叉验证 再回到之前的随机森林(希望还没忘记,机器学习算法-随机森林初探(1)) library(randomForest) set.seed(304) rf1000 <- ...

  2. R语言caret包构建xgboost模型实战:特征工程(连续数据离散化、因子化、无用特征删除)、配置模型参数(随机超参数寻优、10折交叉验证)并训练模型

    R语言caret包构建xgboost模型实战:特征工程(连续数据离散化.因子化.无用特征删除).配置模型参数(随机超参数寻优.10折交叉验证)并训练模型 目录

  3. matlab.10折交叉验证

    clc clear all % 导入数据 data = load('F:\work_matlab\Matlab\wdbc.txt'); [data_r, data_c] = size(data); % ...

  4. 10折交叉验证(10-fold Cross Validation)与留一法(Leave-One-Out)、分层采样(Stratification)

    10折交叉验证我们构建一个分类器,输入为运动员的身高.体重,输出为其从事的体育项目-体操.田径或篮球. 一旦构建了分类器,我们就可能有兴趣回答类似下述的问题: 1. 该分类器的精确率怎么样? 2. 该 ...

  5. 《写给程序员的数据挖掘实践指南》——5.2. 10折交叉验证的例子

    本节书摘来自异步社区出版社<写给程序员的数据挖掘实践指南>一书中的第5章,第5.2节,作者:[美]Ron Zacharski(扎哈尔斯基),更多章节内容可以访问云栖社区"异步社区 ...

  6. 《机器学习》课后习题 3.4 选择两个 UCI 数据集,比较 10 折交叉验证法和留 法所估计出的对率回归的错误率.

    参考了han同学的答案,数据集也可在han同学的github上下载. 3.4 选择两个 UCI 数据集,比较 10 折交叉验证法和留 法所估计出的对率回归的错误率. import numpy as n ...

  7. 10折交叉验证(10-fold Cross Validation)与留一法(Leave-One-Out)、分层采样(Stratification)...

    10折交叉验证 我们构建一个分类器,输入为运动员的身高.体重,输出为其从事的体育项目-体操.田径或篮球. 一旦构建了分类器,我们就可能有兴趣回答类似下述的问题: 1. 该分类器的精确率怎么样? 2. ...

  8. matlab-K折交叉验证与分层K折交叉验证

    文章目录 K折交叉验证有什么用? 如何实现K折交叉验证? K折交叉验证的要点:(文字版) 如何实现K折交叉验证(图片版) 如何实现K折交叉验证(matlab版) 为啥我们需要分层K折交叉验证? 如何实 ...

  9. Pytorch最简单的图像分类——K折交叉验证处理小型鸟类数据集分类2.0版本ing

    https://blog.csdn.net/hb_learing/article/details/110411532 https://blog.csdn.net/Pl_Sun/article/deta ...

  10. 十折交叉验证10-fold cross validation, 数据集划分 训练集 验证集 测试集

    机器学习 数据挖掘 数据集划分 训练集 验证集 测试集 Q:如何将数据集划分为测试数据集和训练数据集? A:three ways: 1.像sklearn一样,提供一个将数据集切分成训练集和测试集的函数 ...

最新文章

  1. gcc——预处理(预编译),编译,汇编,链接
  2. centos7.3挂在移动硬盘(亲测)
  3. 发力企业云,用友是要掉队,还是进击?
  4. 卷积神经网络迁移学习
  5. SPOJ - NSUBSTR Substrings(后缀自动机)
  6. 从业回忆,一次大胆的冒险,程序员转岗项目经理
  7. 使用Maven开发用户模块的CRUD(增删改查)
  8. django初体验 学习笔记
  9. shader变体是什么_shader 里面的分支
  10. 微软.Net RIA Services项目前景简评
  11. h5应用 vue 钉钉_快速上手——钉钉H5微应用开发接入
  12. 网络通信数据传输原理
  13. 直线分割平面的公式_直线分割平面-jiangwen127-ChinaUnix博客
  14. 服务器机房日常维护记录表,机房设备维护记录表
  15. 【壁纸小程序】搭建自己的壁纸小程序-微信抖音双端
  16. 如何提高服务器硬盘读写速度,如何加速硬盘读写速度,如何完全控制ntfs 分区...
  17. ASP.NET 安全认证(二)
  18. 如何将wav文件切成多个子文件
  19. doodoo.js快速入门教程
  20. cfn-signal

热门文章

  1. 基于JAVA的教务排课系统毕业设计
  2. matlab 创建同型矩阵_以经典同型样式创建新地图
  3. 阿里图标库(iconfont)下载图标使用图标技巧(保姆级图文)
  4. Centos安装maven
  5. 【IAR】 This device has been locked for debugging
  6. python爬虫框架论文开题报告范文_基于Web爬虫系统设计开题报告
  7. hightopo六面体贴图
  8. 360通讯录同步java版_360同步助手app下载_360同步助手官方下最新安卓版v 2.0.3-麦块安卓网...
  9. 小白共享网盘系统源码V5.0
  10. 如何解决 Win10 卡顿的问题