Baggging 和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。

Bagging:

先介绍Bagging方法:

Bagging即套袋法,其算法过程如下:

 从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中,也就是有放回抽)。共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的)

 每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等)

分类问题:将上步得到的k个模型采用投票的方式得到分类结果;
回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)

简单理解:

  • Bagging是并行式集成学习方法最著名的代表,具体做法是对样本进行有放回的采样,然后基于每个采样训练集得到一个基学习器,再将他们进行组合。在预测时,对于分类任务通常使用简单的投票法,对于回归任务使用简单平均法

Boosting:

 AdaBoosting方式每次使用的是全部的样本,每轮训练改变样本的权重。下一轮训练的目标是找到一个函数f 来拟合上一轮的残差。当残差足够小或者达到设置的最大迭代次数则停止。Boosting会减小在上一轮训练正确的样本的权重,增大错误样本的权重。(对的残差小,错的残差大).
 梯度提升的Boosting方式是使用代价函数对上一轮训练出的模型函数f的偏导来拟合残差。

简单理解:

  • Boosting主要思想是将一族弱学习器提升为强学习器的方法。具体原理:先从初识训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,来训练下一个基学习器,如此重复进行至学习器数目到达了实现的要求,最终进行学习器的加权求和。

Bagging,Boosting二者之间的区别:

1)样本选择上:

Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。
Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

2)样例权重

Bagging:使用均匀取样,每个样例的权重相等
Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

3)预测函数:

Bagging:所有预测函数的权重相等。
Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

4)并行计算:

Bagging:各个预测函数可以并行生成
Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

参考资料:
https://www.cnblogs.com/earendil/p/8872001.html

Boosting和Bagging区别相关推荐

  1. Bagging和Boosting 策略及其区别

    转自:Bagging和Boosting 概念及区别:http://www.cnblogs.com/liuwu265/p/4690486.html (仅作为笔记,如有侵权请告知) Bagging和Boo ...

  2. 【机器学习】一文详解GBDT、Xgboost、Boosting与Bagging之间的区别

    GBDT与Xgboost的区别 N问GBDT 1. 怎么设置单棵树的停止生长条件? 2. 如何评估特征的权重大小? 3. 当增加样本数量时,训练时长是线性增加的吗? 4. 当增加树的颗数时,训练时长是 ...

  3. Boosting和Bagging: 如何开发一个鲁棒的机器学习算法

    https://www.toutiao.com/a6702386122678338062/ 2019-06-14 22:01:14 作者:Ben Rogojan编译:ronghuaiyang 导读 机 ...

  4. 比较GBDT与Xgboost、boosting与bagging

    GBDT与Xgboost的区别 N问GBDT 1. 怎么设置单棵树的停止生长条件? 2. 如何评估特征的权重大小? 3. 当增加样本数量时,训练时长是线性增加的吗? 4. 当增加树的颗数时,训练时长是 ...

  5. 集成学习算法总结----Boosting和Bagging

    集成学习 基本思想:如果单个分类器表现的很好,那么为什么不适用多个分类器呢? 通过集成学习可以提高整体的泛化能力,但是这种提高是有条件的: (1)分类器之间应该有差异性: (2)每个分类器的精度必须大 ...

  6. 集成学习中的Boosting和Bagging

    集成学习是一大类模型融合策略和方法的统称,其中包含多种集成学习的思想. Boosting Boosting方法训练基分类器时采用串行的方式,各个基分类器之间有依赖. 它的基本思路是将基分类器层层叠加, ...

  7. 【集成学习】boosting和bagging

    视频链接 思想 Boosting和Bagging Boosting Adaboost 算法流程 (分类误差率小的时候,\(\alpha_{m}\):权重就更大) (\(Z{m-1}\)相当于一个归一化 ...

  8. 集成学习boosting和bagging

    思想:通过构建并结合多个学习器来完成学习任务 强学习器:如神经网络等,需要大量的数据,以及较高的服务器性能等,一般来说准确性很高. 弱学习器:如果决策树.逻辑回归等,模型简单,一般准确性一般. 通过组 ...

  9. Bagging和Boosting 概念及区别

    Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法.即将弱分类器组装成强分类器的方法. 首先介绍Boot ...

最新文章

  1. 栈C/C++实现(数据结构严蔚敏版)
  2. NULL,,String.Empty三者在C#中的区别
  3. OC对象的本质及分类
  4. Windows 计划任务功能设置闹钟~
  5. mysql 5.7 安装_MySQL 5.7 的安装历程
  6. scipy.misc.imresize
  7. mmapcopy函数的编写
  8. mysql多线程访问总结
  9. pdfplumber库解析pdf格式
  10. mshtml 解析html c,使用MSHTML解析HTML代码
  11. MATLAB中FFT的使用说明(含MATLAB代码)
  12. 智能手机屏幕尺寸和分辨率一览表
  13. 导出IE浏览器配置的注册表信息 IE设置的注册表相关信息以及修改方法
  14. IJCAI-18 阿里妈妈搜索广告算法大赛亚军解决方案
  15. 微信小程序头像上传以及剪切(使用插件image-cropper)
  16. 用dxdiag命令show计算机系统配置
  17. rf 433/868MHZ sub-1g 无线通信知识系列(5):SX1208数据传输时间 FSK 波特率等相关计算
  18. 只有你能听见(Calling you)2
  19. RANSAC算法实现图像全景拼接
  20. [dpdk] SDK编译配置

热门文章

  1. 国内CRM系统哪家好 CRM管理系统推荐
  2. OpenStack-Ironic裸金属简介
  3. 虚拟存储技术-virtual memory technologies
  4. JavaBeans分类
  5. 多维分析,为什么企业开始大规模应用商业智能(BI)
  6. 【翻译】泛型图片库(GIL)教程(上)
  7. 反编译 逆向工具集合
  8. 什么是RC高通滤波电路
  9. 解决 libpng warning: iCCP: known incorrect sRGB profile
  10. go语言实现网易云音乐爬虫