摘要: 决策树在机器学习算法中是一个相对简单的算法,如何不能进行适当的剪枝就容易造成模型的过拟合。决策树算法也是当前很多集成学习算法的基础,集成算法的效果往往比单独使用决策树算法效果更好。

关键词: 决策树,集成学习

1 初识决策树

决策树就是一个根据原始数据的特征的重要性逐渐确定数据的类别的一种算法。之所以被称为决策树,是因为训练的模型根据训练的数据确定特征的重要性,然后对测试数据分析时会根据不同数据的各个特征值一步一步地分析到分类,就如同一棵树从树根到树叶的路径一样,可参考下图:

决策树传统上来讲主要是用来做分类的,但是也不排除可以使用该算法进行回归分析,之前的文章也有过介绍如:【机器学习】分类算法其实也可做回归分析——以knn为例。本文主要介绍使用决策树进行分类的原理。

2 构造决策树

刚才说到,决策树是根据数据的不同重要的特征进行一步一步地划分数据的,那么使用什么指标来确定特征的重要性呢?当前主要使用的衡量指标是信息熵基尼(Gini)指数

2.1 通过熵构建决策树

2.1.1 信息熵

文献1中指出,信息熵是衡量信息不确定性的指标,不确定性是一个事件出现不同结果的可能性。对应的计算公式如下:
H(Y)=−∑i=1nP(yi)log⁡2P(yi)H\left( Y \right) =-\sum_{i=1}^n{P\left( y_i \right) \log _2P\left( y_i \right)} H(Y)=−i=1∑n​P(yi​)log2​P(yi​)
其中,yiy_iyi​是随机变量YYY的一个可能事件,P(yi)P(y_i)P(yi​)则代表该事件发生的概率。以常见的例掷硬币为例,两枚骰子正反面出现的概率如下:

硬币 概率
正面 0.5
反面 0.5

对于该硬币掷出去后,信息熵如下:
H(Y)=−0.5×log⁡20.5−0.5×log⁡20.5=1H\left( Y \right) =-0.5\times \log _20.5-0.5\times \log _20.5=1 H(Y)=−0.5×log2​0.5−0.5×log2​0.5=1

硬币 概率
正面 0.99
反面 0.01

同理,对于该硬币掷出去后,信息熵如下:
H(Y)=−0.99×log⁡20.99−0.0.1×log⁡20.01=0.08H\left( Y \right) =-0.99\times \log _2 0.99- 0.0.1\times \log _2 0.01=0.08 H(Y)=−0.99×log2​0.99−0.0.1×log2​0.01=0.08
从上面的例子我们可以看出,第二枚硬币正面的概率为0.99,我们基本可以认为硬币掷出去后是正面,所有信息熵比较小,而对于第一枚硬币,由于正反面概率相同,这时掷出硬币后就比较难确定正反面了,信息熵也就比较大了。

2.1.2 条件熵

在决策树确定特征的重要性时除了信息熵以外,还会用到条件熵。在给定随机变量XXX的条件下,随机变量YYY的不确定性。公式如下:
H(Y∣X)=−∑i=1nP(yi∣xi)log⁡2(yi∣xi)H\left( Y|X \right) =-\sum_{i=1}^n{P\left( y_i|x_i \right) \log _2\left( y_i|x_i \right)} H(Y∣X)=−i=1∑n​P(yi​∣xi​)log2​(yi​∣xi​)
其中xix_ixi​和yiy_iyi​分别是随机变量XXX、YYY的一个事件。

2.1.3 信息增益

信息增益的定义就是:事件的熵值减去对应的条件熵,代表了在一个条件下,信息不确定性减少的程度。通过下面的公式就可以了解。
I(X,Y)=H(Y)−H(Y∣X)I\left( X,Y \right) =H\left( Y \right) -H\left( Y|X \right) I(X,Y)=H(Y)−H(Y∣X)
当信息增益越大,那么在这个条件下知晓后,事件就比较容易确定了。计算案例可以参考如下(知道某个条件后分成将原始数据分成了两堆):

2.1.4 决策树结构过程

有以下数据,该数据是在不同天气情况下客户打高尔夫球的记录。每条数据包含Outlook、Temp、Humanity、Wind四个特征以及对应的数据标签是否Play Golf。现在我们就可以通过结合天气信息较少不确定性来判断在一些情况下客户是否会打Golf。而每个特征都有多个取值。

现在我们需要明确研究对象,即是否打Golf。
第一步就是:计算Play Golf的熵,可以根据下表进行计算:

首先是构建根节点,先看Play Golf 的熵:在14 条历史数据中,打球的概率为0.64,不打球的
概率为0.36,熵值为0.94。
第二步就是:寻找晴朗程度、湿度、风力和温度四种状况与是否打高尔夫相关性最高的一个特征,进行决策树构建。

  1. 以Outlook为条件计算的条件熵和信息增益如下:


    那么使用Outlook的条件熵:
    0.36×0.971+0.29×0+0.36×0.971=0.690.36\times 0.971+0.29\times 0+0.36\times 0.971=0.69 0.36×0.971+0.29×0+0.36×0.971=0.69
    信息增益:0.940-0.69=0.25 (最佳分割特征)
  2. 同理分别以Temp、Humidity、Wind计算出对应的信息增益结果为:0.02,0.15,0.05.
  3. 经比较Outlook的信息增益最大,将其设置为第一个分类依据特征,根据Outlook的取值就可以构建如下图的树:

    根据上图结果可以看出在Outlook为Overcast时,这时全部是Play Golf,进而可将决策树简化为下图:

    但是在Sunny和Rainy这两个分支中还有数据需要继续划分,划分时只用考虑Temp、Humidity、Wind这三个特征。
    在Sunny枝节上的划分时,如下图:

    从图中可以看出在Wind特征中,只要是False就Play Golf,True就不打Golf, 也就是说可以对剩下的数据进行划分了,这个枝节结束。当然,同样可以使用信息增益的方式确定这三个特征的优先级。

在Rainy枝节上的划分时,如下图:

从图中可以看出在Humidity特征中,只要是Normal就Play Golf,High就不打Golf,同样也可以使用信息增益的方式选择该特征。另一方面说,这时针对训练数据,决策树就构建完成了。

2.1.5 决策树模型数据预测

假设我们有一个数据如下:

Outlook Temp Humidity Wind Play Golf
Sunny Mild High False ?

那么根据刚刚构建的决策树模型,则有下图:

那么就可以预测出“True”,即去打Golf。以这种方式构建决策树的算法称为ID3决策树生成算法。

2.2 基于基尼指数构建决策树

使用基尼指数去确定数据的特征的重要性。根据文献1介绍,基尼指数(Gini不纯度)表示在样本集合中一个随机选中的样本被分错的概率。
注:Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度越高,反之集合就不纯。当集合中所有样本为一个类时,基尼指数为0.
在当前特征条件下,对于是否打Golf,当基尼指数越小时那么,那么集合纯度越大,其对应的特征就越重要。
根据文献2基尼指数定义如下:分类问题中,假设有K个类,样本点属于第k类的概率为pkp_kpk​,则概率分布的基尼指数如下:
Gini(p)=∑k=1Kpk(1−pk)=1−∑k=1Kpk2Gini\left( p \right) =\sum_{k=1}^K{p_k\left( 1-p_k \right) =1-\sum_{k=1}^K{p_{k}^{2}}} Gini(p)=k=1∑K​pk​(1−pk​)=1−k=1∑K​pk2​
使用基尼指数的方式与信息熵相同,使用基尼增益确定哪个特征的重要性,下面来看一个例子。

2.2.1 使用基尼指数构建决策树

依然使用根据天气预测是否打高尔夫球的案例,数据在2.1.4节。
根据原始数据计算基尼不纯度,一个14条数据,5次No,9次Yes,则基尼不纯度为:
Gini=1−(514)2−(914)2=0.459Gini=1-\left( \frac{5}{14} \right) ^2-\left( \frac{9}{14} \right) ^2=0.459 Gini=1−(145​)2−(149​)2=0.459
以Outlook特征为条件的基尼指数计算,这时Outlook特征不同取值的概率就可看成一个权重,而Outlook一个取值下存在Play Golf和不打Golf,那么在这个特征下加权的基尼不纯度为:
Gini=(5/14)×gini(2,3)+(4/14)×gini(4,0)+(5/14)×gini(3,2)=5/14×(1−(2/5)2−(3/5)2)+(4/14)×(1−(4/4)2)++5/14×(1−(3/5)2−(2/5)2)=0.342\begin{aligned} Gini&=\left( 5/14 \right) \times gini\left( 2,\ 3 \right) +\left( 4/14 \right) \times gini\left( 4,\ 0 \right) +\left( 5/14 \right) \times gini\left( 3,\ 2 \right) \\ &=5/14\times(1-(2/5)^2-(3/5)^2)+(4/14)\times(1-(4/4)^2)+\\ &+5/14\times(1-(3/5)^2-(2/5)^2)=0.342 \end{aligned} Gini​=(5/14)×gini(2, 3)+(4/14)×gini(4, 0)+(5/14)×gini(3, 2)=5/14×(1−(2/5)2−(3/5)2)+(4/14)×(1−(4/4)2)++5/14×(1−(3/5)2−(2/5)2)=0.342​
注:gini(a,b)表示,在当前条件两种结果出现的次数a,b下的基尼指数。
进而可以计算出Gini增益为:0.459-0.342=0.117
同理可计算出分别以Temp,Wind,Humidity为条件的特征的基尼增益为:0.0185,0.0304,0.0916。经比较Outlook的基尼增益最大,特征最重要,与使用熵的方式相类似,以此类推就可以构建一个决策树了。

2.3 基于信息增益比构建决策树

由于以信息增益作为划分训练数据集特征,存在偏向于选择取值较多的问题。使用信息增益比可以对这一问题进行校正。
根据文献2,可知信息增益比:特征A对训练数据集D的信息增益比为:其信息增益g(D,A)g(D,A)g(D,A)与训练数据集D关于特征A的值的熵HA(D)H_A(D)HA​(D)之比。其中HA(D)H_A(D)HA​(D)公式如下:
HA(D)=−∑i=1n∣Di∣∣D∣log⁡2∣Di∣∣D∣H_A\left( D \right) =-\sum_{i=1}^n{\frac{|D_i|}{|D|}\log _2\frac{|D_i|}{|D|}} HA​(D)=−i=1∑n​∣D∣∣Di​∣​log2​∣D∣∣Di​∣​
这里的n表示特征A取值的个数。以这种方式构建决策树的算法称为C4.5决策树生成算法。

Reference

[1] 集成学习:XGBoost, lightGBM. https://www.bilibili.com/video/BV1Ca4y1t7DS
[2] 李航.统计学习方法[M]. 北京,清华大学出版社:55-75

【机器学习】这份分类决策树算法介绍请收好!相关推荐

  1. Python3:《机器学习实战》之决策树算法(3)预测隐形眼镜类型

    Python3:<机器学习实战>之决策树算法(3)预测隐形眼镜类型 转载请注明作者和出处:http://blog.csdn.net/u011475210 代码地址:https://gith ...

  2. ID3和C4.5分类决策树算法 - 数据挖掘算法(7)

    (2017-05-18 银河统计) 决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来判断其可行性的决策分析方法,是直观运用概率分析的一种图解法.由于这种决策分支画 ...

  3. 【机器学习】通俗的决策树算法讲解和应用

    [机器学习]通俗的决策树算法讲解和应用 文章目录 1 概述 2 决策树场景 3 决策树开发流程 4 决策树的实际运用 5 机器学习决策树算法解决图像识别-ENVI决策树分类 6 总结 1 概述 决策树 ...

  4. 决策树分类算法matlab,matlab实现的C45分类决策树算法

    <matlab实现的C45分类决策树算法>由会员分享,可在线阅读,更多相关<matlab实现的C45分类决策树算法(6页珍藏版)>请在人人文库网上搜索. 1.functionD ...

  5. matlab id3决策树,matlab实现的ID3分类决策树算法

    <matlab实现的ID3分类决策树算法>由会员分享,可在线阅读,更多相关<matlab实现的ID3分类决策树算法(4页珍藏版)>请在人人文库网上搜索. 1.function ...

  6. Python机器学习(三)--决策树算法

    Python机器学习(三)--决策树算法 原创  2014年07月14日 13:57:55

  7. 大学学什么课会用到matlab,高校蹭课?这份蹭课攻略请收好!| 内附福利

    原标题:高校蹭课?这份蹭课攻略请收好!| 内附福利 蹭课? 只能蹭自己学校的课? NO! 你是否想过 有一天去蹭其他学校的课? 拥有一个蹭课的心 却不知道从何蹭起? ☑ 就让小编手把手教你 如何蹭到自 ...

  8. 决策树算法介绍及应用

    机器学习概念 机器学习 (Machine Learning) 是近 20 多年兴起的一门多领域交叉学科,涉及概率论.统计学.逼近论.凸分析.算法复杂度理论等多门学科. 机器学习理论主要是设计和分析一些 ...

  9. 【机器学习入门】(5) 决策树算法实战:sklearn实现决策树,实例应用(沉船幸存者预测)附python完整代码及数据集

    各位同学好,今天和大家分享一下python机器学习中的决策树算法,在上一节中我介绍了决策树算法的基本原理,这一节,我将通过实例应用带大家进一步认识这个算法.文末有完整代码和数据集,需要的自取.那我们开 ...

最新文章

  1. 一些我们码代码过程中有用的小技巧
  2. Linux从入门到精通系列之SHELL编程awk语法结构及案例解析
  3. 设置程序中的html,如何在Behat中为HTML格式化程序设置自定义模板
  4. 01_关于TensorFlow、什么是数据流图(Data Flow Graph)、TensorFlow的特征、谁可以使用Tensorflow、为啥Google要开源这个神器?
  5. 正几边形可以实现无缝拼接?
  6. android 心跳效果动画,Android实现心跳的效果
  7. 田亮:坚信大数据的变革力量
  8. mysql性能仪表盘_mysql-笔记-性能
  9. 导航第四版-分类专栏
  10. 大厂面试算法系列-如何实现链表的逆序(一)-原地逆序
  11. Java判断奇数偶数-高效率
  12. ajax上传.mp4文件不出错,ajax视频如何上传?
  13. 浅谈极限编程(更新中)
  14. CRMEB/V4.4标准版打通版商城源码小程序公众号H5+App商城源码
  15. 音频编解码算法库 (可支持g711u,g711a,g729,g722,opus等)
  16. php小写转大写,php怎么实现英文小写转大写
  17. 钢琴作品常用体裁名称及曲式
  18. C语言串口通信R8T8,K60-串口通信
  19. 发送到桌面快捷方式没有了如何解决?
  20. windows服务创建

热门文章

  1. 【高效软件】推荐一款多功能PDF转换器,在线转换永久免费
  2. iphone文稿和数据怎么迁移到iCloud云端
  3. 友盟的Common的包下载失败,报错Forbidden
  4. DSP软件测试用例,DSP汇编语言软件测试方法研究.doc
  5. 惠普墨盒用错墨水的补救经历
  6. 基于 ESO-PLL 的永磁同步电机无位置传感器控制
  7. 【Multisim仿真】全波整流电路仿真
  8. 【错误记录】Android Studio 中 Gradle 配置报错 ( Can‘t determine type for tag ‘<item name=““ type=“String“>)
  9. 变更百度智能云DNS--域名解析
  10. 思博伦Avalanche中的Load类型定义_双极未来