2.1 经验误差与过拟合

错误率:m个样本a个样本分类错误,错误率为E=a/m

精度 = 1 - 错误率,即:1-a/m

训练误差(经验误差):学习器在训练集上的误差。

泛化误差:学习器在新样本上的误差。

通常来讲,训练误差很小的学习器往往过拟合,这样对新的样本的泛化误差回大很多。

于过拟合相对应的是欠拟合,这是指对训练样本的一般性质尚未学好。

2.2 评估方法

我们用一个测试集来测试学习器对新样本的泛化能力,然后以测试集上的“测试误差”作为泛化误差的近似。

注意:测试集应该与训练集互斥。

2.2.1 留出法

留出法直接将数据集D划分为两个相互斥的集合其中一个集合作为训练集S,另一个作为测试集T,即D= S并T,S交T = 空集。在S上训练出模型后,用T来测试,作为对泛化误差的估计。

2.2.2 交叉验证法

先将数据集D划分为k个集合,D1,D2,D3...Dk,为了保证每个子集与原数据集的分布的一致性,故采用分层取样的方法。

每次取k-1个集合作为训练集,另外剩余的那个集合作为测试集。这样我们就得到K组测试/训练集,返回结果为K组结果的均值。

通常把稽查验证法叫做“k折交叉验证”,k通常取10.

对比留出法,同样D划分为K个子集存在多种划分方法,为了极限因不同的划分方法的所造成的误差,我们随机划分p次,每次k组,被称作p次k组交叉验证法,返回值是p次的均值。

10次10折交叉验证和100次留出法都是进行了100次训练。

留一法

留一法是k折交叉验证的特殊形式,若存在一个数据集D内含m个样本令k = m,这样每次训练集只与原数据集少一个样本,则训练出的模型回与D训练出的模型极大的相似,所以认为留一法的精确度非常高。

但当训练集的样本量十分大的时候,留一法的开销也同样十分大,另外“没有免费的午餐”告诉我们留一法估计结果也未必比其他的评估方法准确。

2.2.3 自助法  bootstrapping

以自助采样为基础,给定包含m个样本的集合D,对D进行m次自助采样,生成一个包含m个样本的新的集合D’。

自助采样是一种有放回的均匀抽样。

因此m次抽样后D集合中有的样本回多次出现在新数据集D'中,有的元素则始终不会被抽中。

始终不被抽中的概率为(1-1/m)^m,对这个式子求极限可得到,当m趋近于无穷的时候,这个数趋近于1/e,约等于0.368,即通过大量的自助采样法后,处死数据集D中约有36.8%的样本仍未出现在采样集合D'中。

因此,我们可以将D’作为训练集,D\D'作为测试集,(\为集合减法)这样期望评估的模型和实际评估的模型都是使用m个样本训练得到的,而我们仍有36%的样本未在训练集中出现,用于测试,这样的测试结果被叫做“包外估计”。

自助法的优缺点:

一、优点

1.自助法在数据集较小,难以邮箱划分训练集/测试集的时候很有用。

2.自助法能从初始数据集中产生多个不同的训练集,对集成学习等方法有很大好处。

二、缺点

自助法产生的数据集甘比哪里初始数据集的分布,这会引入估计偏差。当数据量足够时,一般使用留出法和交叉验证法。

2.2.4 调参和最终模型

大多数学习算法都有些参数需要设定,参数对模型效果的影响巨大。

理论上调参的过程应当枚举全部参数进行比较收益选择,而实际上往往参数的取值是实数范围内的取值,因此是无法穷举全部参数可能的,而比较好的选择是,首先对参数选定一个范围和一个步长,最终候选参数可能是一个较少的数量,这往往是肌酸开销与性能折中后的结果。

而大多性能比较好的算法,参数数量往往会比较多。例如,某算法需要三个参数,而每个参数的候选值有五个,就有125种调参方式,因此肌酸开销是非常大的,以至于在很多应用中,调参对模型性能有关键的影响。

调参时往往训练集D会留出部分数据进行评估。当一旦选定了最优的模型后则需要用全部的D训练最终模型。

另外,我们把实际中遇到的数据成为测试集,把评估模型时从训练集中划分出的数据集成为验证集。

周志华机器学习西瓜书速记第二章绪论模型评估与选择(一)相关推荐

  1. 周志华-机器学习西瓜书-第三章习题3.3 编程实现对率回归

    本文为周志华机器学习西瓜书第三章课后习题3.3答案,编程实现对率回归,数据集为书本第89页的数据 使用tensorflow实现过程 # coding=utf-8 import tensorflow a ...

  2. 【吃瓜教程】周志华机器学习西瓜书第三章答案

    线性模型结构梳理 3.1 试析在什么情形下式3.2中不必考虑偏置项b 答案一: 偏置项b在数值上代表了自变量取0时,因变量的取值: 1.当讨论变量x对结果y的影响,不用考虑b: 2.可以用变量归一化( ...

  3. 机器学习(周志华)西瓜书 课后习题4.3 信息熵决策树算法——python实现(包括树的可视化)

    机器学习(周志华)西瓜书 课后习题4.3 信息熵决策树算法--python实现(包括树的可视化) 算法原理 1.信息熵 2.信息增益 我们所以要做的就是不断地从当前剩余的属性当中选取最佳属性对样本集进 ...

  4. 机器学习(周志华) 参考答案 第十四章 概率图模型 14.9

    机器学习(周志华西瓜书) 参考答案 总目录 http://blog.csdn.net/icefire_tyh/article/details/52064910 机器学习(周志华) 参考答案 第十四章 ...

  5. 机器学习_周志华(西瓜书) 课后习题答案 第一章 Chapter1

    机器学习_周志华 课后习题答案 第一章 Chapter1 习题1.1 Q:表1.1中若只包含编号为1和4的两个样例,试给出相应的版本空间. 由所给出的数据集(训练集)可知,属性3个:色泽.根蒂.敲声, ...

  6. 《机器学习》 —— 第二章:模型评估与选择 学习笔记

    2.1 经验误差与过拟合 把分类错误的样本数占样本总数的比例称为"错误率"(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m:相应的,1-a/m称为 ...

  7. 机器学习_周志华_西瓜书_学习笔记_第二章--模型的评估与选择

    2 模型的评估与选择 2.1 误差与过拟合 我们将学习器对样本的实际预测结果与样本的真实值之间的差异成为:误差(error).定义: 在训练集上的误差称为训练误差(training error)或经验 ...

  8. 从周志华的西瓜书到李宏毅的机器学习开源项目,一文总结Datawhale系列分享

    今天是开源组织Datawhale一周岁生日,这一年来,Datawhale 分享了很多优质内容,希望通过这篇总结帮助大家更好地系统学习. Datawhale是一个专注于AI领域的开源组织,也是我的亲密伙 ...

  9. 周志华《机器学习》课后习题解析(第二章)模型评估与选择

    作者 | 我是韩小琦 链接 | https://zhuanlan.zhihu.com/p/42435889 2.1 数据集包含 1000 个样本,其中 500 个正例. 500 个反例,将其划分为包含 ...

  10. 《机器学习》 周志华学习笔记第十四章 概率图模型(课后习题)python实现

    一.基本内容 1.隐马尔可夫模型 1.1. 假定所有关心的变量集合为Y,可观测变量集合为O,其他变量集合为R, 生成式模型考虑联合分布P(Y,R,O),判别式模型考虑条件分布P(Y,R|O),给定一组 ...

最新文章

  1. 《强化学习周刊》第30期:Deep Mind开展人机交互的新试点研究、MIT提出神经进化优化框架...
  2. JDK的环境变量配置
  3. ubuntu下集群设置静态ip
  4. tuxedo管理命令之tmadmin
  5. jmeter解决不同线程组之间传递参数问题
  6. 转:WCF基础知识问与答
  7. atitit.编程语言 类与对象的 扩展机制.doc
  8. 在Cocos2d-x中使用CocosBuilder
  9. 神经网络求解NS方程
  10. 树莓派配套系统_3.95寸配套树莓派显示屏,移植好操作系统,普及树莓派显示屏...
  11. AD7606应用笔记
  12. STM32蓝牙小车以及PWM调速
  13. BZOJ3837: [Pa2013]Filary
  14. U盘产品如何做好软文推广利用软文来打造为产品引流宣传
  15. 达人评测 麒麟9000、麒麟990e和苹果a15 哪个好
  16. 微信公众号粉丝快速涨粉的五个方法
  17. Google maps javascript api v3 叠加层(Overlays)介绍
  18. 加密之SSL和单双向认证
  19. 杭州抢人:最高800万购房补贴,本科以上外加每年1万租房补贴
  20. redis6 入门级教程,有整合案例,可以直接看整合案例,简单入门,直接上手

热门文章

  1. Mysql学习第二课 tar、lvm、mysqldump全备份
  2. PHP专家陪练营试听课程下载
  3. android 开发自建wifi热点的默认ip
  4. Jquery读取.Net WebService Json数据
  5. Oracle新建用户及权限
  6. poj Fibonacci(快速幂取模运算)
  7. Linux将数据从小存储通过FTP发送到大存储中
  8. 【转】.NET对象序列化2
  9. c++ 空类大小不为0的原因
  10. html修改列表内的audio样式,如何修改H5中的audio样式