机器学习基石(林轩田)第七章 笔记与感悟总结
7.1 VC尺寸 - VC尺寸的定义
我们上个周证明了艾因约等于Eout的,即测试的表现和训练的表现相似。
在成长函数在某个地方有break point和N足够大的时候。
意义在于之后介绍的VC维度。
我们以后就不用B(N,k)的的这种麻烦的写法了,只需要使用NR个(K-1)这种简单的写法。因为N^(K-1)是最大的上限。
vc bound,在我们H set中有h发生坏事情的概率很小,无论我么选择什么g,发生坏事情的概率都很小。
几个条件,让我们的学习可以做的到。
1)有ķ
2)N足够大
3)好的演算法,使恩波较小
我们还需要好一点的运气。
VC Dimension试图将个别最大的K,的前一个位置,的正式名称。
当数据N小的时候,有可能被破碎掉,即出现K = 2,(XX,oo,XO,ox)的情况。
当N大的时候,实际上Ñ等价于K,这里我没太懂?为什么一定不能被shatter?????
这里看最后的2D情况,为什么是三个点?四个点肯定不能破碎,因为四个点的有效(N)只有14种,没有到达16种。
但是三种也有可能是下图的6种情况啊
原因在于取下图的最大可能的有效值。
有限的vc D有什么好处?
如下图三句英语1)与演算法无关,即便糟糕的演算法导致Ein很大,它也能确保Ein约等于Eout,
2)与资料是如何分布无关
3)与未知的目标˚F无关
7.2 VC维度 - 感知器的VC维度
二维平面(X1,X2)
线性可分,最后如果能收敛,Ein为0。
对于2D Perceptron,我们知道它的dvc = 3。如果资料够大的话,就能得到结论。
弹幕:这里的VC维是3数据的维数是2也就是常说的2分类是这个意思吧?
答:是吧
PLA能用在多维,不只是二维的数据点。怎么证明呢?
1维dvc = 2
2维dvc是3
猜想Dvc = d + 1
我们只要找到一组资料,为d + 1笔。这一大笔资料能被假设设定给粉碎掉,说明dvc> = d + 1
2D有(0,0)(1,0),(0,1)这三个点
注意到X的逆矩阵存在!
那么存在有什么意义呢?,
回忆shatter的意义,我们给任何一种xxoo的y时,我们总能找到一个w与X相乘能够等于y
结论是我们能找到一个特殊的X,使之能够被粉碎推导出dvc> = d + 1
原本我们三个点能够粉碎,但是多了一个点,变成4个点就不行。
我们证明了X4一定要是OO
也就是说,今天我们把X4表示成其他三个向量的线性组合时,这个线性依赖的关系会限制二分法产生的数量。
正因为d + 2这一个向量可以用前d + 1个表示,前d + 1个确定了最后一个也就确定了,这样所有的d + 2个向量永远也不能遍历所有情况
7.3 VC维度 - VC维度的物理直觉
d + 1实际上就是感知器的维度.dvc = d + 1,例如2D Perceptron的dvc是3
这些假说
vc D对于二分类的有效的自由度。
衡量这个自由度,告诉我们这个假设设定到底能够产生多少二分法。
定义模型自由度是,模型当中可以自由变动的参数的个数,即我们的机器需要通过学习来决定模型参数的个数。
Positive rays有一个可以调的“旋钮”,这个旋钮是a
正面间隔有两个可以调的旋钮。
DVC表示我们大概可以由多少旋钮。
d + 1是WT矩阵的秩,也就是WT矩阵的最大线性无关组的维数。
感谢楼上!!听懂了...... X·Wt = y X数据是N维,X | Y就是N + 1维,所以Wt也就是N + 1维,Dvc就是Wt的满秩情况...所以是N +1
打碎的意思也就是说有些W效果是一样的,跟其他W是线性相关的
7.4 VC维度 - 解释VC维度
算出了Eout的的最坏的情形是多少。我们也只关注最坏的情形。
我们讲根号里的叫做模型复杂性
我们的ħ有多么的强,大家就是Ω那么多。
其中括号里的ħ代表的是DVC
很高的几率,Eout的的要小于Ein+Ω()
这就是过拟合的理论依据吧
神奇的结论,实际上只要10倍的资料就能够达到我们的要求。而理论上高速我们要10000倍的DVC才能达到要求。
解读机器学习基础概念:VC维的来龙去脉
机器学习基石(林轩田)第七章 笔记与感悟总结相关推荐
- 机器学习基石(林轩田)第一章 笔记与感悟总结
第一章学习问题 1.1课程生产 老师观点:从基础学起不要成为机器学习的奴隶. 1.2什么是机器学习 学习是从观察出发,视听嗅觉. 观察 - >学习 - >技能 电脑的观察是资料,然后进行处 ...
- 【机器学习】机器学习基石-林轩田-2-Learning to Answer Yes_No
机器学习基石-林轩田-2-Learning to Answer Yes_No 本节内容 引例 A Simple Hypothesis Set: Perceptron Perceptron Learni ...
- 机器学习基石-林轩田 Lecture 3:Types of Learning
复习 这个是是非题(其实就是一个二元分类器) 信用卡的是否分发. 电子邮件是否是垃圾邮件 病人是否生病 广告是否会赚钱 这个学生是否能够答对这一题 机器学习种类 多类机器学习 把你投入的硬币分类(1c ...
- 机器学习基石 机器学习技法 林轩田 课件 ppt
下载地址:https://www.csie.ntu.edu.tw/~htlin/mooc/ 这是林轩田在台大的个人网页,两种课的课件都有 Machine Learning Foundations Ma ...
- 机器学习基石(林軒田)笔记之十二
Nonlinear Transformation(非线性转换) 回顾 在第十一讲中我们介绍了如何通过(logistic)回归来处理二分类问题,以及如何通过OVA/OVO分解来解决多分类问题. Quad ...
- 机器学习基石(林軒田)笔记之十三
Hazard of Overfitting(过拟合的危害) 回顾 上一讲中我们学习了(非线性转换) What is Overfitting? 什么是过拟合? 1.假设输入空间为一维的,共有五个样本点的 ...
- 读吴军《见识》之第七章笔记及感悟
人生的智慧之幸福是目的,成功是手段. 写在前面,这是我的第一篇csdn博客,其中主要是摘录了吴军老师的一些内容作为我的学习笔记,我也将开始我的记录生涯,未来我会将自己所学所想的东西包括技术,论文,书籍 ...
- 林轩田机器学习基石(Machine Learning Foundations)笔记(一)
要求两周之内看完林轩田机器学习基石和技法,速度是要的,但是感觉看得太快我会不久就会忘记.因此记录一下梗概,顺便写写看视频时解决的不懂的地方(有种思想就是把知识传播给更多人,有时候就是靠大佬们善意的一句 ...
- 机器学习基石(台湾大学 林轩田),Lecture 1: The Learning Problem
课程的讲授从logo出发,logo由四个图案拼接而成,两个大的和两个小的.比较小的两个下一次课程就可能会解释到它们的意思,两个大的可能到课程后期才会解释到它们的意思(提示:红色代表使用机器学习危险,蓝 ...
最新文章
- LeetCode实战:不同路径
- css3的动画特效--元素旋转(transition,animation)
- 竟然能从一维空间变换为四维空间!?
- H.264入门级概念之I、B、P帧
- 软件工程(可行性研究讲解)
- FileFilter 遍历某个目录下文件名含有某个字符的文件
- 设计模式——通过简单工厂模式推出工厂方法模式
- TensorFlow入门篇(二):线性回归
- blendshape变形器详细解释
- win10电脑:。。。该内存不能为written.要终止程序,请单击确定
- 【saltstack学习系列之四】saltstack的returner
- java大作穿越arpg,超任帝国最后的挽歌 篇二:ARPG篇(动作角色扮演游戏)
- 【敬伟ps教程】图层相关知识
- Java项目:SSM实现的一个在线文具学习用品购买商城网站
- 图:两点之间的最短距离
- 深挖数字科技与场景 详解京东数字科技三大技术能力
- python二维字典简单赋值取值
- Python如何在函数内部使用全局变量
- 基于QT的五子棋人机博弈问题设计与实现 文档+任务书+答辩PPT+演示视频+项目源码
- 微软黑屏,为什么这么强势
热门文章
- egret白鹭引擎保存加载文件到本地的实现方案
- word家庭版误删后重装
- c语言快速入门 惧留孙,《封神英雄榜2》阴阳镜是什么法宝殷洪最后结局死了吗...
- iOS开发 数据存储之WCDB的介绍
- java 使用双缓冲出现重影问题,图片残留
- 使用SystemVerilog使状态机的运行更加容易
- 多用户商城系统电子商务解决方案
- mongodb一次性更新多条数据updateMany
- mysql spring 整合日志_Spring整合log4j日志组件(转)
- 10分钟python爬虫_python scrapy 入门,10分钟完成一个爬虫