7.1 VC尺寸 - VC尺寸的定义

我们上个周证明了艾因约等于Eout的,即测试的表现和训练的表现相似。

在成长函数在某个地方有break point和N足够大的时候。

意义在于之后介绍的VC维度。

我们以后就不用B(N,k)的的这种麻烦的写法了,只需要使用NR个(K-1)这种简单的写法。因为N^(K-1)是最大的上限。

vc bound,在我们H set中有h发生坏事情的概率很小,无论我么选择什么g,发生坏事情的概率都很小。

几个条件,让我们的学习可以做的到。

1)有ķ

2)N足够大

3)好的演算法,使恩波较小

我们还需要好一点的运气。

VC Dimension试图将个别最大的K,的前一个位置,的正式名称。

当数据N小的时候,有可能被破碎掉,即出现K = 2,(XX,oo,XO,ox)的情况。

当N大的时候,实际上Ñ等价于K,这里我没太懂?为什么一定不能被shatter?????

这里看最后的2D情况,为什么是三个点?四个点肯定不能破碎,因为四个点的有效(N)只有14种,没有到达16种。

但是三种也有可能是下图的6种情况啊

原因在于取下图的最大可能的有效值。

有限的vc D有什​​么好处?

如下图三句英语1)与演算法无关,即便糟糕的演算法导致Ein很大,它也能确保Ein约等于Eout,

2)与资料是如何分布无关

3)与未知的目标˚F无关

7.2 VC维度 - 感知器的VC维度

二维平面(X1,X2)

线性可分,最后如果能收敛,Ein为0。

对于2D Perceptron,我们知道它的dvc = 3。如果资料够大的话,就能得到结论。

弹幕:这里的VC维是3数据的维数是2也就是常说的2分类是这个意思吧?

答:是吧

PLA能用在多维,不只是二维的数据点。怎么证明呢?

1维dvc = 2

2维dvc是3

猜想Dvc = d + 1

我们只要找到一组资料,为d + 1笔。这一大笔资料能被假设设定给粉碎掉,说明dvc> = d + 1

2D有(0,0)(1,0),(0,1)这三个点

注意到X的逆矩阵存在!

那么存在有什么意义呢?,

回忆shatter的意义,我们给任何一种xxoo的y时,我们总能找到一个w与X相乘能够等于y

结论是我们能找到一个特殊的X,使之能够被粉碎推导出dvc> = d + 1

原本我们三个点能够粉碎,但是多了一个点,变成4个点就不行。

我们证明了X4一定要是OO

也就是说,今天我们把X4表示成其他三个向量的线性组合时,这个线性依赖的关系会限制二分法产生的数量。

正因为d + 2这一个向量可以用前d + 1个表示,前d + 1个确定了最后一个也就确定了,这样所有的d + 2个向量永远也不能遍历所有情况

7.3 VC维度 - VC维度的物理直觉

d + 1实际上就是感知器的维度.dvc = d + 1,例如2D Perceptron的dvc是3

这些假说

vc D对于二分类的有效的自由度。

衡量这个自由度,告诉我们这个假设设定到底能够产生多少二分法。

定义模型自由度是,模型当中可以自由变动的参数的个数,即我们的机器需要通过学习来决定模型参数的个数。

Positive rays有一个可以调的“旋钮”,这个旋钮是a

正面间隔有两个可以调的旋钮。

DVC表示我们大概可以由多少旋钮。

d + 1是WT矩阵的秩,也就是WT矩阵的最大线性无关组的维数。

感谢楼上!!听懂了...... X·Wt = y X数据是N维,X | Y就是N + 1维,所以Wt也就是N + 1维,Dvc就是Wt的满秩情况...所以是N +1

打碎的意思也就是说有些W效果是一样的,跟其他W是线性相关的

7.4 VC维度 - 解释VC维度

算出了Eout的的最坏的情形是多少。我们也只关注最坏的情形。

我们讲根号里的叫做模型复杂性

我们的ħ有多么的强,大家就是Ω那么多。

其中括号里的ħ代表的是DVC

很高的几率,Eout的的要小于Ein+Ω()

这就是过拟合的理论依据吧

神奇的结论,实际上只要10倍的资料就能够达到我们的要求。而理论上高速我们要10000倍的DVC才能达到要求。

解读机器学习基础概念:VC维的来龙去脉

机器学习基石(林轩田)第七章 笔记与感悟总结相关推荐

  1. 机器学习基石(林轩田)第一章 笔记与感悟总结

    第一章学习问题 1.1课程生产 老师观点:从基础学起不要成为机器学习的奴隶. 1.2什么是机器学习 学习是从观察出发,视听嗅觉. 观察 - >学习 - >技能 电脑的观察是资料,然后进行处 ...

  2. 【机器学习】机器学习基石-林轩田-2-Learning to Answer Yes_No

    机器学习基石-林轩田-2-Learning to Answer Yes_No 本节内容 引例 A Simple Hypothesis Set: Perceptron Perceptron Learni ...

  3. 机器学习基石-林轩田 Lecture 3:Types of Learning

    复习 这个是是非题(其实就是一个二元分类器) 信用卡的是否分发. 电子邮件是否是垃圾邮件 病人是否生病 广告是否会赚钱 这个学生是否能够答对这一题 机器学习种类 多类机器学习 把你投入的硬币分类(1c ...

  4. 机器学习基石 机器学习技法 林轩田 课件 ppt

    下载地址:https://www.csie.ntu.edu.tw/~htlin/mooc/ 这是林轩田在台大的个人网页,两种课的课件都有 Machine Learning Foundations Ma ...

  5. 机器学习基石(林軒田)笔记之十二

    Nonlinear Transformation(非线性转换) 回顾 在第十一讲中我们介绍了如何通过(logistic)回归来处理二分类问题,以及如何通过OVA/OVO分解来解决多分类问题. Quad ...

  6. 机器学习基石(林軒田)笔记之十三

    Hazard of Overfitting(过拟合的危害) 回顾 上一讲中我们学习了(非线性转换) What is Overfitting? 什么是过拟合? 1.假设输入空间为一维的,共有五个样本点的 ...

  7. 读吴军《见识》之第七章笔记及感悟

    人生的智慧之幸福是目的,成功是手段. 写在前面,这是我的第一篇csdn博客,其中主要是摘录了吴军老师的一些内容作为我的学习笔记,我也将开始我的记录生涯,未来我会将自己所学所想的东西包括技术,论文,书籍 ...

  8. 林轩田机器学习基石(Machine Learning Foundations)笔记(一)

    要求两周之内看完林轩田机器学习基石和技法,速度是要的,但是感觉看得太快我会不久就会忘记.因此记录一下梗概,顺便写写看视频时解决的不懂的地方(有种思想就是把知识传播给更多人,有时候就是靠大佬们善意的一句 ...

  9. 机器学习基石(台湾大学 林轩田),Lecture 1: The Learning Problem

    课程的讲授从logo出发,logo由四个图案拼接而成,两个大的和两个小的.比较小的两个下一次课程就可能会解释到它们的意思,两个大的可能到课程后期才会解释到它们的意思(提示:红色代表使用机器学习危险,蓝 ...

最新文章

  1. LeetCode实战:不同路径
  2. css3的动画特效--元素旋转(transition,animation)
  3. 竟然能从一维空间变换为四维空间!?
  4. H.264入门级概念之I、B、P帧
  5. 软件工程(可行性研究讲解)
  6. FileFilter 遍历某个目录下文件名含有某个字符的文件
  7. 设计模式——通过简单工厂模式推出工厂方法模式
  8. TensorFlow入门篇(二):线性回归
  9. blendshape变形器详细解释
  10. win10电脑:。。。该内存不能为written.要终止程序,请单击确定
  11. 【saltstack学习系列之四】saltstack的returner
  12. java大作穿越arpg,超任帝国最后的挽歌 篇二:ARPG篇(动作角色扮演游戏)
  13. 【敬伟ps教程】图层相关知识
  14. Java项目:SSM实现的一个在线文具学习用品购买商城网站
  15. 图:两点之间的最短距离
  16. 深挖数字科技与场景 详解京东数字科技三大技术能力
  17. python二维字典简单赋值取值
  18. Python如何在函数内部使用全局变量
  19. 基于QT的五子棋人机博弈问题设计与实现 文档+任务书+答辩PPT+演示视频+项目源码
  20. 微软黑屏,为什么这么强势

热门文章

  1. egret白鹭引擎保存加载文件到本地的实现方案
  2. word家庭版误删后重装
  3. c语言快速入门 惧留孙,《封神英雄榜2》阴阳镜是什么法宝殷洪最后结局死了吗...
  4. iOS开发 数据存储之WCDB的介绍
  5. java 使用双缓冲出现重影问题,图片残留
  6. 使用SystemVerilog使状态机的运行更加容易
  7. 多用户商城系统电子商务解决方案
  8. mongodb一次性更新多条数据updateMany
  9. mysql spring 整合日志_Spring整合log4j日志组件(转)
  10. 10分钟python爬虫_python scrapy 入门,10分钟完成一个爬虫