03 集成学习 - Boosting - AdaBoost算法原理

十、AdaBoost算法构建

上一章最后说明了每个基模型的权值α是如何求得的,于是我就可以对模型进行更新操作了。

构建过程一

1、假设数据集: T={(X1,Y1),(X2,Y2),...(Xn,Yn)}

2、初始化训练数据权重分布:
D1={w11,w12,...,w1i,...,w1n},w1i = 1/n , i=1,2,3,...,n;
(初始化的样本等权分配,有n个样本,每个样本的权重就是1/n)
D1 - 第一个样本集。
w12 - 第1个样本集中的第2个样本。

3、使用具有权值分布Dm的训练数据集学习,得到基本分类器:
Gm(x):x → {-1,+1}
分类器得到的结果不是-1就是+1。

4、计算__Gm(x)__在训练集上的分类误差:

5、计算__Gm(x)__的权值系数αm:

第5步完成后,会将样本的权重进行改变,回到第1步构建D2。

总结:反复执行a~e步骤,迭代生成新的学习器。
a、更新样本权重。
b、建立"某种"基模型。
c、计算当前模型(train set)的误分率。
d、计算基模型的权值。
e、更新样本的权重,形成新的样本集。
求解顺序: D1→G1→ξ1→α1→D2....

构建过程二

6、新训练数据集的权重分布
解决问题:新的样本集的样本权重如何分配。
从下图中可以看到,从第二轮开始,样本权重不再是均分的了。
Dm+1 代表的是权重构成的向量。右边是它的计算公式。
公式分析:
wm,i 是上一轮迭代中该样本的权重。
e-αyG(x) 是上一轮迭代中的损失值。(类似损失)

7、上面公式中的 Zm 是规范化因子(归一化)

8、构建基分类器的线性组合
求解顺序: D1→G1→ξ1→α1→D2....

9、得到最终分类器

至此,完成了整个AdaBoost的构建过程。
核心求解步骤再次强调: D1→G1→ξ1→α1→D2 ....


总结和回顾 AdaBoost和bagging算法的区别:

bagging算法不会改变原始数据集当中的数据取值,但是boosting算法会根据基模型建立的结果,通过某种方法,改变数据集的样子,来建立下一个基模型。
1、改变样本的权重。
2、改变模型权值。
改变以上两种权值,等价于改变了原始数据集的数据取值。

04 集成学习 - Boosting - AdaBoost算法构建相关推荐

  1. EL之AdaBoost:集成学习之AdaBoost算法的简介、应用、经典案例之详细攻略

    EL之AdaBoost:集成学习之AdaBoost算法的简介.应用.经典案例之详细攻略 目录 AdaBoost算法的简介 1.理解AdaBoost算法 1.1.从前向逐步递增角度来看理解AdaBoos ...

  2. 集成学习-Boosting集成学习算法GBDT

    GBDT算法的核心为:先构造一个(决策)树,然后不断在已有模型和实际样本输出的残差上再构造一颗树,依次迭代. 目录 Decistion Tree(决策树) Gradient Boosting(梯度提升 ...

  3. 集成学习——Boosting(AdaBoost,Gradient Boosting)

    集成学习--Boosting 与bagging方法不同,boosting中各个分类器串行生成,第Hn个分类器会受到Hn-1个分类器的影响.其主要思想是使下一个分类器更加关注于在上一个分类器上不能很好预 ...

  4. 笔记—集成学习—Boosting

    集成学习--Boosting 一.引言 在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型.但是,实际情况往往不这么理想,有时我们只能得到多个有偏好的模型(弱监督模 ...

  5. 集成学习:让算法和算法赛跑

    文章目录 集成学习的基本概念 构建弱分类器:决策树 自助采样法 bootstrapping bootstrapping的核心思想 bootstrapping与permutation的区别 baggin ...

  6. 集成学习之Adaboost

    集成学习之Adaboost 时间:2022/6/13 文章目录 集成学习之Adaboost 1.集成学习 1.1学习器 1.2集成学习算法 1.3学习器的选择 2.AdaBoost 2.1Boosti ...

  7. 【机器学习】集成学习—Boosting—GBM(Gradient Boosting Machine)解析

    [机器学习]集成学习-Boosting-GBM(Gradient Boosting Machine)解析 文章目录 [机器学习]集成学习-Boosting-GBM(Gradient Boosting ...

  8. 集成学习、Bagging算法、Bagging+Pasting、随机森林、极端随机树集成(Extra-trees)、特征重要度、包外评估

    集成学习.Bagging算法.Bagging+Pasting.随机森林.极端随机树集成(Extra-trees).特征重要度.包外评估 目录

  9. 集成学习-Boosting集成学习算法AdaBoost

    Boosting是一族将弱学习器提升为强学习器的算法,适用于个体学习器间存在强依赖关系.必须串行生成序列化方法.最著名的代表是AdaBoost. Boosting的工作机制:从初始的训练集中训练出一个 ...

最新文章

  1. 通过h5页面上传视频到Linux服务器
  2. QIIME 2教程. 15样品分类和回归q2-sample-classifier(2020.11)
  3. java 停顿 分钟_java - 年轻的垃圾收集更长时间停顿与Java 7 vs java 6 - 堆栈内存溢出...
  4. 网格员计算机基本操作,网格交易总结系列(一)基本操作篇
  5. 设置让php能够以root权限来执行exec() 或者 shell_exec()
  6. 作为初学者,应该如何系统学习Java呢?
  7. JavaScript实现求最大公约数 (GCD)的算法(附完整源码)
  8. UVA-10285 Longest Run on a Snowboard (递推)
  9. 安卓学习笔记23:常用控件 - 网格视图与图像切换器
  10. ibm linux mq 发送消息_IBM MQ简明教程——2. 将消息发送至远程队列
  11. 指纹考勤机使用的基本操作方法
  12. JavaScript执行机制(彻底弄懂宏任务微任务)
  13. IDEA 启动项目报错 Shorten the command line via JAR manifest or via a classpath file and rerun
  14. Word文档标题设置,一级文字,二级及以下为数字
  15. mysql缓存优化,MySQL优化步骤及my.cnf缓存优化
  16. C语言初级学习---一个文件调用另一个源文件函数!
  17. 传统企业IT如何上云
  18. 网络基础 -- 应用层HTTP协议
  19. 机器学习1:泛化(过拟合、欠拟合)
  20. 打游戏计算机 配置清单,组装电脑配置清单玩游戏用的

热门文章

  1. APP之红点提醒三个阶段
  2. Linux6版本系统搭建Open***远程访问
  3. MySQL ERROR 1878 解决办法
  4. CSS3 @keyframes animate
  5. IT工作者,你们的爱情是这样的吗?
  6. 如何成为一个优秀的程序员
  7. 【笔记】重学前端-winter
  8. [asp.net core]SignalR一个例子
  9. python 字典
  10. /dev/sda2 is mounted; will not make a filesystem here!