注:

本文转载自:https://blog.csdn.net/weixin_30641999/article/details/98417986仅作学习交流使用。
文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。
笔记原作者:红色石头
微信公众号:AI有道

上节课主要开始介绍Aggregation Models,目的是将不同的hypothesis得到的gtgt集合起来,利用集体智慧得到更好的预测模型GG。首先我们介绍了Blending,blending是将已存在的所有gtgt结合起来,可以是uniformly,linearly,或者non-linearly组合形式。然后,我们讨论了在没有那么多gtgt的情况下,使用bootstrap方式,从已有数据集中得到新的类似的数据集,从而得到不同的gtgt。这种做法称为bagging。本节课将继续从这些概念出发,介绍一种新的演算法。

1. Motivation of Boosting

先来看一个简单的识别苹果的例子,老师展示20张图片,让6岁孩子们通过观察,判断其中哪些图片的内容是苹果。从判断的过程中推导如何解决二元分类问题的方法。

显然这是一个监督式学习,20张图片包括它的标签都是已知的。首先,学生Michael回答说:所有的苹果应该是圆形的。根据Michael的判断,对应到20张图片中去,大部分苹果能被识别出来,但也有错误。其中错误包括有的苹果不是圆形,而且圆形的水果也不一定是苹果。如下图所示:

上图中蓝色区域的图片代表分类错误。显然,只用“苹果是圆形的”这一个条件不能保证分类效果很好。我们把蓝色区域(分类错误的图片)放大,分类正确的图片缩小,这样在接下来的分类中就会更加注重这些错误样本。

然后,学生Tina观察被放大的错误样本和上一轮被缩小的正确样本,回答说:苹果应该是红色的。根据Tina的判断,得到的结果如下图所示:

上图中蓝色区域的图片一样代表分类错误,即根据这个苹果是红色的条件,使得青苹果和草莓、西红柿都出现了判断错误。那么结果就是把这些分类错误的样本放大化,其它正确的样本缩小化。同样,这样在接下来的分类中就会更加注重这些错误样本。

接着,学生Joey经过观察又说:苹果也可能是绿色的。根据Joey的判断,得到的结果如下图所示:

上图中蓝色区域的图片一样代表分类错误,根据苹果是绿色的条件,使得图中蓝色区域都出现了判断错误。同样把这些分类错误的样本放大化,其它正确的样本缩小化,在下一轮判断继续对其修正。

后来,学生Jessica又发现:上面有梗的才是苹果。得到如下结果:

经过这几个同学的推论,苹果被定义为:圆的,红色的,也可能是绿色的,上面有梗。从一个一个的推导过程中,我们似乎得到一个较为准确的苹果的定义。虽然可能不是非常准确,但是要比单一的条件要好得多。也就是说把所有学生对苹果的定义融合起来,最终得到一个比较好的对苹果的总体定义。这种做法就是我们本节课将要讨论的演算法。这些学生代表的就是简单的hypotheses gtgt,将所有gtgt融合,得到很好的预测模型GG。例如,二维平面上简单的hypotheses(水平线和垂直线),这些简单gtgt 最终组成的较复杂的分类线能够较好地将正负样本完全分开,即得到了好的预测模型。

所以,上个苹果的例子中,不同的学生代表不同的hypotheses gtgt;最终得到的苹果总体定义就代表hypothesis GG;而老师就代表演算法AA,指导学生的注意力集中到关键的例子中(错误样本),从而得到更好的苹果定义。其中的数学原理,我们下一部分详细介绍。

2. Diversity by Re-weighting

在介绍这个演算法之前,我们先来讲一下上节课就介绍过的bagging。Bagging的核心是bootstrapping,通过对原始数据集DD不断进行bootstrap的抽样动作,得到与DD类似的数据集D^tD^t,每组D^tD^t都能得到相应的gtgt,从而进行aggregation的操作。现在,假如包含四个样本的DD经过bootstrap,得到新的D^tD^t如下:

那么,对于新的D^tD^t,把它交给base algorithm,找出EinEin最小时对应的gtgt,如下图右边所示。

由于D^tD^t完全是DD经过bootstrap得到的,其中样本(x1,y1)(x1,y1)出现2次,(x2,y2)(x2,y2)出现1次,(x3,y3)(x3,y3)出现0次,(x4,y4)(x4,y4)出现1次。引入一个参数uiui来表示原DD中第ii个样本在D^tD^t中出现的次数,如图中左边所示。

参数uu相当于是权重因子,当D^tD^t中第ii个样本出现的次数越多的时候,那么对应的uiui越大,表示在error function中对该样本的惩罚越多。所以,从另外一个角度来看bagging,它其实就是通过bootstrap的方式,来得到这些uiui值,作为犯错样本的权重因子,再用base algorithm最小化包含uiui的error function,得到不同的gtgt。这个error function被称为bootstrap-weighted error。

这种算法叫做Weighted Base Algorithm,目的就是最小化bootstrap-weighted error。

其实,这种weighted base algorithm我们之前就介绍过类似的算法形式。例如在soft-margin SVM中,我们引入允许犯错的项,同样可以将每个点的error乘以权重因子unun。加上该项前的参数CC,经过QP,最终得到0≤αn≤Cun0≤αn≤Cun,有别于之前介绍的0≤αn≤C0≤αn≤C。这里的unun相当于每个犯错的样本的惩罚因子,并会反映到αnαn的范围限定上。

同样在logistic regression中,同样可以对每个犯错误的样本乘以相应的unun,作为惩罚因子。unun表示该错误点出现的次数,unun越大,则对应的惩罚因子越大,则在最小化error时就应该更加重视这些点。

其实这种example-weighted learning,我们在机器学习基石课程第8次笔记中就介绍过class-weighted的思想。二者道理是相通的。

知道了uu的概念后,我们知道不同的uu组合经过base algorithm得到不同的gtgt。那么如何选取uu,使得到的gtgt之间有很大的不同呢?之所以要让所有的gtgt差别很大,是因为上节课aggregation中,我们介绍过gtgt越不一样,其aggregation的效果越好,即每个人的意见越不相同,越能运用集体的智慧,得到好的预测模型。

为了得到不同的gtgt,我们先来看看gtgt和gt+1gt+1是怎么得到的:

如上所示,gtgt是由utnunt得到的,gt+1gt+1是由u(t+1)nun(t+1)得到的。如果gtgt这个模型在使用u(t+1)nun(t+1)的时候得到的error很大,即预测效果非常不好,那就表示由u(t+1)nun(t+1)计算gt+1gt+1会与gtgt有很大不同。而gt+1gt+1与gtgt差异性大正是我们希望看到的。

怎么做呢?方法是利用gtgt在使用u(t+1)nun(t+1)的时候表现很差的条件,越差越好。如果在gtgt作用下,u(t+1)nun(t+1)中的表现(即error)近似为0.50.5的时候,表明gtgt对u(t+1)nun(t+1)的预测分类没有什么作用,就像抛硬币一样,是随机选择的。这样的做法就能最大限度地保证gt+1gt+1会与gtgt有较大的差异性。其数学表达式如下所示:

乍看上面这个式子,似乎不好求解。但是,我们对它做一些等价处理,其中分式中分子可以看成gtgt作用下犯错误的点,而分母可以看成犯错的点和没有犯错误的点的集合,即所有样本点。其中犯错误的点和没有犯错误的点分别用橘色方块和绿色圆圈表示:

要让分式等于0.5,显然只要将犯错误的点和没有犯错误的点的数量调成一样就可以了。也就是说,在gtgt作用下,让犯错的u(t+1)nun(t+1)数量和没有犯错的u(t+1)nun(t+1)数量一致就行(包含权重ut+1nunt+1)。一种简单的方法就是利用放大和缩小的思想(本节课开始引入识别苹果的例子中提到的放大图片和缩小图片就是这个目的),将犯错误的utnunt和没有犯错误的utnunt做相应的乘积操作,使得二者值变成相等。例如utnunt of incorrect为1126,utnunt of correct为6211,要让u(t+1)nun(t+1)中错误比例正好是0.5,可以这样做,对于incorrect u(t+1)nun(t+1):

u(t+1)n←utn∗6211un(t+1)←unt∗6211

对于correct u(t+1)nun(t+1):

u(t+1)n←utn∗1126un(t+1)←unt∗1126

或者利用犯错的比例来做,令weighted incorrect rate和weighted correct rate分别设为1126733711267337和6211733762117337。一般求解方式是令犯错率为ϵtϵt,在计算u(t+1)nun(t+1)的时候,utnunt分别乘以(1−ϵt)(1−ϵt)和ϵtϵt。

3. Adaptive Boosting Algorithm

上一部分,我们介绍了在计算u(t+1)nun(t+1)的时候,utnunt分别乘以(1−ϵt)(1−ϵt)和ϵtϵt。下面将构造一个新的尺度因子:

那么引入这个新的尺度因子之后,对于错误的utnunt,将它乘以⋄t⋄t;对于正确的utnunt,将它除以⋄t⋄t。这种操作跟之前介绍的分别乘以(1−ϵt)(1−ϵt)和ϵtϵt的效果是一样的。之所以引入⋄t⋄t是因为它能告诉我们更多的物理意义。因为如果ϵt≤12ϵt≤12,得到⋄t≥1⋄t≥1,那么接下来错误的utnunt与⋄t⋄t乘积就相当于把错误点放大了,而正确的utnunt与⋄t⋄t的相除就相当于把正确点缩小了。这种scale up incorrect和scale down correct的做法与本节课开始介绍的学生识别苹果的例子中放大错误的图片和缩小正确的图片是一个原理,让学生能够将注意力更多地放在犯错误的点上。通过这种scaling-up incorrect的操作,能够保证得到不同于gtgt的gt+1gt+1。

值得注意的是上述的结论是建立在ϵt≤12ϵt≤12的基础上,如果ϵt≥12ϵt≥12,那么就做相反的推论即可。关于ϵt≥12ϵt≥12的情况,我们稍后会进行说明。

从这个概念出发,我们可以得到一个初步的演算法。其核心步骤是每次迭代时,利用⋄t=1−ϵtϵt−−−−√⋄t=1−ϵtϵt把utut更新为ut+1ut+1。具体迭代步骤如下:

但是,上述步骤还有两个问题没有解决,第一个问题是初始的u(1)u(1)应为多少呢?一般来说,为了保证第一次EinEin最小的话,设u(1)=1Nu(1)=1N即可。这样最开始的g1g1就能由此推导。第二个问题,最终的G(x)应该怎么求?是将所有的g(t)g(t)合并uniform在一起吗?一般来说并不是这样直接uniform求解,因为gt+1gt+1是通过gtgt得来的,二者在EinEin上的表现差别比较大。所以,一般是对所有的g(t)g(t)进行linear或者non-linear组合来得到G(t)G(t)。

接下来的内容,我们将对上面的第二个问题进行探讨,研究一种算法,将所有的g(t)g(t)进行linear组合。方法是计算g(t)g(t)的同时,就能计算得到其线性组合系数αtαt,即aggregate linearly on the fly。这种算法使最终求得gt+1gt+1的时候,所有gtgt的线性组合系数αα也求得了,不用再重新计算αα了。这种Linear Aggregation on the Fly算法流程为:

如何在每次迭代的时候计算αtαt呢?我们知道αtαt与ϵtϵt是相关的:ϵtϵt越小(错误率小),对应的αtαt应该越大,ϵtϵt越大,对应的αtαt应该越小。又因为⋄t⋄t与ϵtϵt是正相关的,所以,αtαt应该是⋄t⋄t的单调函数。我们构造αtαt为:

αt=ln(⋄)αt=ln(⋄)

αtαt这样取值是有物理意义的,例如当ϵt=12ϵt=12时,error很大,跟掷骰子这样的随机过程没什么两样,此时对应的⋄t=1⋄t=1,αt=0αt=0,即此gtgt对GG没有什么贡献,权重应该设为零。而当ϵt=0ϵt=0时,没有error,表示该gtgt预测非常准,此时对应的⋄t=∞⋄t=∞,αt=∞αt=∞,即此gtgt对GG贡献非常大,权重应该设为无穷大。

这种算法被称为Adaptive Boosting。它由三部分构成:base learning algorithm A,re-weighting factor ⋄t⋄t和linear aggregation αtαt。这三部分分别对应于我们在本节课开始介绍的例子中的Student,Teacher和Class。

综上所述,完整的adaptive boosting(AdaBoost)Algorithm流程如下:

从我们之前介绍过的VC bound角度来看,AdaBoost算法理论上满足:

上式中,Eout(G)Eout(G)的上界由两部分组成,一项是Ein(G)Ein(G),另一项是模型复杂度O(∗)O(∗)。模型复杂度中dvc(H)dvc(H)是gtgt的VC Dimension,TT是迭代次数,可以证明GG的dvcdvc服从O(dvc(H)⋅Tlog T)O(dvc(H)⋅Tlog T)。

对这个VC bound中的第一项Ein(G)Ein(G)来说,有一个很好的性质:如果满足ϵt≤ϵ<12ϵt≤ϵ<12 ,则经过T=O(log N)T=O(log N)次迭代之后,Ein(G)Ein(G)能减小到等于零的程度。而当NN很大的时候,其中第二项也能变得很小。因为这两项都能变得很小,那么整个Eout(G)Eout(G)就能被限定在一个有限的上界中。

其实,这种性质也正是AdaBoost算法的精髓所在。只要每次的ϵt≤ϵ<12ϵt≤ϵ<12,即所选择的矩gg比乱猜的表现好一点点,那么经过每次迭代之后,矩gg的表现都会比原来更好一些,逐渐变强,最终得到Ein=0Ein=0且EoutEout很小。

4. Adaptive Boosting in Action

上一小节我们已经介绍了选择一个“弱弱”的算法A(ϵt≤ϵ<12ϵt≤ϵ<12,比乱猜好就行),就能经过多次迭代得到Ein=0Ein=0。我们称这种形式为decision stump模型。下面介绍一个例子,来看看AdaBoost是如何使用decision stump解决实际问题的。
如下图所示,二维平面上分布一些正负样本点,利用decision stump来做切割。

第一步

第二步

第三步

第四步

第五步

可以看到,经过5次迭代之后,所有的正负点已经被完全分开了,则最终得到的分类线为:

另外一个例子,对于一个相对比较复杂的数据集,如下图所示。它的分界线从视觉上看应该是一个sin波的形式。如果我们再使用AdaBoost算法,通过decision stump来做切割。在迭代切割100次后,得到的分界线如下所示。

可以看出,AdaBoost-Stump这种非线性模型得到的分界线对正负样本有较好的分离效果。

课程中还介绍了一个AdaBoost-Stump在人脸识别方面的应用:

5. 总结

本节课主要介绍了Adaptive Boosting。首先通过讲一个老师教小学生识别苹果的例子,来引入Boosting的思想,即把许多“弱弱”的hypotheses合并起来,变成很强的预测模型。然后重点介绍这种算法如何实现,关键在于每次迭代时,给予样本不同的系数uu,宗旨是放大错误样本,缩小正确样本,得到不同的小矩gg。并且在每次迭代时根据错误ϵϵ值的大小,给予不同gtgt不同的权重。最终由不同的gtgt 进行组合得到整体的预测模型GG。实际证明,Adaptive Boosting能够得到有效的预测模型。

转载于:https://www.cnblogs.com/SweetZxl/p/11059709.html

机器学习技法8-Adboost算法相关推荐

  1. 机器学习技法 Lecture16:Finale

    机器学习技法 Lecture16:Finale Feature Exploitation Techniques Error Optimization Techniques Overfitting El ...

  2. 机器学习技法1-Linear Support Vector Machine

    注: 文章中所有的图片均来自台湾大学林轩田<机器学习技法>课程. 笔记原作者:红色石头 微信公众号:AI有道 本系列分成16节课,将会介绍<机器学习基石>的进阶版<机器学 ...

  3. 【完结】林轩田机器学习技法终章

    AI有道 一个有情怀的公众号 1 Feature Exploitation Techniques 我们在本系列课程中介绍的第一个特征提取的方法就是kernel.Kernel运算将特征转换和计算内积这两 ...

  4. 台湾大学林轩田机器学习技法课程学习笔记16(完结) -- Finale

    红色石头的个人网站:redstonewill.com 上节课我们主要介绍了Matrix Factorization.通过电影推荐系统的例子,介绍Matrix Factorization其实是一个提取用 ...

  5. 台湾大学林轩田机器学习技法课程学习笔记15 -- Matrix Factorization

    红色石头的个人网站:redstonewill.com 上节课我们主要介绍了Radial Basis Function Network.它的原理就是基于距离相似性(distance-based simi ...

  6. 台湾大学林轩田机器学习技法课程学习笔记13 -- Deep Learning

    红色石头的个人网站:redstonewill.com 上节课我们主要介绍了神经网络Neural Network.神经网络是由一层一层的神经元构成,其作用就是帮助提取原始数据中的模式即特征,简称为pat ...

  7. 台湾大学林轩田机器学习技法课程学习笔记12 -- Neural Network

    红色石头的个人网站:redstonewill.com 上节课我们主要介绍了Gradient Boosted Decision Tree.GBDT通过使用functional gradient的方法得到 ...

  8. 台湾大学林轩田机器学习技法课程学习笔记10 -- Random Forest

    红色石头的个人网站:redstonewill.com 上节课我们主要介绍了Decision Tree模型.Decision Tree算法的核心是通过递归的方式,将数据集不断进行切割,得到子分支,最终形 ...

  9. 台湾大学林轩田机器学习技法课程学习笔记5 -- Kernel Logistic Regression

    红色石头的个人网站:redstonewill.com 上节课我们主要介绍了Soft-Margin SVM,即如果允许有分类错误的点存在,那么在原来的Hard-Margin SVM中添加新的惩罚因子C, ...

最新文章

  1. Unity “出圈”:游戏引擎的技术革新和跨界商机
  2. vim技巧总结-查找
  3. tcp为什么比udp慢_TCP和UDP那些事儿
  4. Zynq SOC学习笔记之设备树
  5. 新闻网大数据实时分析可视化系统项目——7、Kafka分布式集群部署
  6. 在职场中,长得漂亮真的有用吗?
  7. 深入理解BeanPostProcessor接口
  8. 未来五年程序员应当具备的十项技能
  9. Node.js 学习笔记(三)
  10. OpenCV案例(二):选取圆对象
  11. 永久关闭wps热点新闻的办法
  12. JavaScript设置显示video第一帧
  13. java scanner close_Java Scanner close()方法
  14. Win11磁盘清理怎么没有了?Win11磁盘清理在哪打开?
  15. react Hook useEffect()
  16. edk2中的fdf文件简介
  17. 802.11ac知识整合
  18. 李峋的爱心表白代码来了
  19. 谈谈算法的时间复杂度
  20. crash工具分析sysdump使用

热门文章

  1. java_进阶.泛型.set集合.第八天
  2. linux究竟有何优势?为何大多数程序员会选择linux?
  3. 【.Net码农】【淘宝API】淘宝API开发系列---阿里.聚石塔.开放平台的使用
  4. Linux warning
  5. osi七层模型每一层的含义及介绍
  6. 昆虫有趋光性?我来告诉你,并不是!
  7. 周鸿祎:商业模式不是赚钱模式
  8. freemodbus多从机支持
  9. 汽车创新人士Rick Tewell晋升为Velodyne Lidar首席运营官
  10. L1-051 打折 (5 分)