1. 决策树

 决策树(Decision Tree)是一种预测模型;它是通过一系列的判断达到决策的方法。下面是一个判断是否买房的例子,一共15个实例,有Age, Has_job, Own_house, Credit_rating四个属性,树的各个分叉是对属性的判断,叶子是各分枝的实例个数。

决策树

 这是个很简单的例子,只用了两层,每个叶子节点就得到了一致的结果(如2/2),如果不一致,则会使用其它属性递归地划分,直到属性用完,或分支下得到一致的结果,或者满足一定停止条件。对于有歧义的叶子节点,一般用多数表决法。
 决策树的优点是复杂度低,输出结果直观,对中间值缺失不敏感;缺点是可能过拟合,有时用到剪枝的方法避免过拟合。
 决策树的原理看起来非常简单,但在属性值非常多,实例也非常多的情况下,计算量是庞大的,我们需要采用一些优化算法:先判断哪些属性会带来明显的差异,于是引出了信息量的问题。

2. 信息量

 意外越大,越不可能发生,概率就越小,信息量也就越大,也就是信息越多。比如说“今天肯定会天黑”,实现概率100%,说了和没说差不多,信息量就是0。
 信息量= log2(1/概率)=log2(概率^-1)=-log2(概率),log2是以2为底的对数。
 举个例子:掷色子每个数有1/6的可能性,即log2(6)=2.6,1-6的全部可能性,二进制需要3位描述(3>2.6);抛硬币正反面各1/2可能性,log(2)=1,二进制用一位即可描述,相比之下,掷色子信息量更大。

3. 熵

 熵=H=-sum(概率*log2(概率)),可以看到它是信息量的期望值,描述的也是意外程度,即不确定性。0<H<log2(m),m是分类个数,log2(m)是均匀分布时的熵。二分类熵的取值范围是[0,1],0是非常确定,1是非常不确定。

4. 信息量与熵

 分类越多->信息量越大->熵越大,如图所示:图C将点平均分成5类(熵为2.32),图B将点平均分成两类(熵为1),则看起来C更复杂,更不容易被分类,熵也更大。
 分类越平均->熵越大。图B(熵为1)比A(熵为0.72)更复杂,更不容易被分类,熵也更大。

5. 信息增益

 信息增益(Information Gain):熵A-条件熵B,是信息量的差值。也就是说,一开始是A,用了条件后变成了B,则条件引起的变化是A-B,即信息增益(它描述的是变化Delta)。好的条件就是信息增益越大越好,即变化完后熵越小越好(熵代表混乱程度,最大程度地减小了混乱)。因此我们在树分叉的时候,应优先使用信息增益最大的属性,这样降低了复杂度,也简化了后边的逻辑。

6. 举例

 假设使用8天股票数据实例,以次日涨/跌作为目标分类,红为涨,蓝为跌,如上图所示涨跌概率各50%:50%(2分类整体熵为1),有D,E,F三个属性描述当日状态,它们分别将样本分为两类:方和圆,每类四个。D中方和圆中涨跌比例各自为50%:50%(条件熵为1,信息增益0)。E中方的涨跌比例为25%:75%,圆的涨跌比例为75%:25%(条件熵为0.81,信息增益0.19),F中方的涨跌比例为0:%:100%,圆的涨跌比例为100%:0%(条件熵为0,信息增益1)。
 我们想要寻找的属性是可直接将样本分成正例和反例的属性,像属性F为圆一旦出现,第二天必大涨,而最没用的是D,分类后与原始集合正反比例相同。E虽然不能完全确定,也使我们知道当E为圆出现后,比较可能涨,它也带有一定的信息。
 使用奥卡姆剃刀原则:如无必要,勿增实体。不确定有用的就先不加,以建立最小的树。比如,如个属性X(代表当日涨幅),明显影响第二天,则优先加入,属性Y(代表当天的成交量),单独考虑Y,可能无法预测第二天的涨跌,但如果考虑当日涨幅X等因素之后,成交量Y就可能变为一个重要的条件,则后加Y。属性Z(隔壁张三是否买了股票),单独考虑Z,无法预测,考虑所有因素之后,Z仍然没什么作用。因此属性Z最终被丢弃。策略就是先把有用的挑出来,不知道是不是有用的往后放。

7. 熵的作用

 熵是个很重要的属性,它不只是在决策树里用到,各个分类器都会用到这个量度。比如说,正例和反例为99:1时,全选正例的正确率也有99%,这并不能说明算法优秀。就像在牛市里能挣钱并不能说明水平高。另外分成两类,随机选的正确率是50%;分而三类,则为33%,并不是算法效果变差了。在看一个算法的准确率时,这些因类都要考虑在内。在多个算法做组合时,也应选择信息增益大的放在前面。
 在决策树中利用熵,可以有效地减小树的深度。计算每种分类的熵,然后优先熵小的,依层次划分数据集。熵的算法,一般作为决策树的一部分,把它单拿出来,也可以用它筛选哪个属性是最直接影响分类结果的。

8. 计算熵的程序

# -*- coding: utf-8 -*-
import mathdef entropy(*c):if(len(c)<=0):return -1result = 0for x in c:result+=(-x)*math.log(x,2)return result;if (__name__=="__main__"):
print(entropy(0.99,0.01));

9. 决策树的核心程序

(1) 软件安装

ubuntu系统

$ sudo pip install sklearn
$ sudo pip install pydotplus
$ sudo apt-get install graphviz

(1) 代码

    # 训练决策树X_train, X_test, y_train ,y_test = cross_validation.train_test_split(X,y,test_size=0.2)clf = tree.DecisionTreeClassifier(max_depth=5)clf.fit(X_train,y_train)accuracy = clf.score(X_test,y_test)print("accuracy:",accuracy)# 生成决策树图片dot_data = StringIO()tree.export_graphviz(clf,out_file=dot_data, feature_names=["open","high","low","close","turnover"],filled=True,rounded=True,impurity=False)graph = pydotplus.graph_from_dot_data(dot_data.getvalue())open('/tmp/a.jpg','wb').write(graph.create_jpg())

10. 如何看待决策树的结果

 使用sklearn的tree训练数据后,可得到准确度评分。如果数据集中包含大量无意义的数据,评分结果可能不是很高。但是从图的角度看,如果某一个叶子节点,它的实例足够多,且分类一致,有的情况下,我们可以把这个判断条件单独拿出来使用。
 使用一个模型,不是丢进一堆数据,训练个模型,看个正确率,预测一下就完了。要需要仔细去看树中的规则。树本身就是一个无序到有序的变化过程。

技术文章定时推送
请关注公众号:算法学习分享

机器学习_决策树与信息熵相关推荐

  1. 机器学习_决策树(信息熵,决策树,决策树优化,剪枝)

    今天开始学决策树,尽管导师每天催任务,但我还是得把机器学习学完,学懂,现在看西瓜书很有感觉.这个机器学习太好了,感觉学着学着就变聪明了一样,不断地让自己的思维变得更敏捷,所以我爱机器学习. 今天要讲的 ...

  2. 机器学习_决策树_ID3算法_C4.5算法_CART算法及各个算法Python实现

    下面的有些叙述基于我个人理解, 可能与专业书籍描述不同, 但是最终都是表达同一个意思, 如果有不同意见的小伙伴, 请在评论区留言, 我不胜感激. 参考: 周志华-机器学习 https://blog.c ...

  3. Python机器学习:决策树002信息熵

    #信息熵 #假如系统中只有两类·· import numpy as np import matplotlib.pyplot as plt def entropy(p):return -p * np.l ...

  4. 机器学习_用树回归方法画股票趋势线

     本篇的主题是分段线性拟合,也叫回归树,是一种集成算法,它同时使用了决策和线性回归的原理,其中有两点不太容易理解,一个是决策树中熵的概念,一个是线性拟合时求参数的公式为什么是由矩阵乘法实现的.如需详解 ...

  5. 机器学习(决策树一)——最直白的话来说信息熵

    接下来几篇博客介绍决策树,并且尽量用最直白的话来讲解.本篇博客介绍决策树中比较重要的一个概念--信息熵. 前置内容 信息熵可以说是决策树中最基本的概念,在介绍信息熵前,补充一点儿前置内容. 假设存在一 ...

  6. 机器学习中决策树的随机森林_决策树和随机森林在机器学习中的使用

    机器学习中决策树的随机森林 机器学习 (Machine Learning) Machine learning is an application of artificial intelligence ...

  7. 机器学习系列(10)_决策树与随机森林回归

    注:本篇文章接上一篇文章>>机器学习系列(9)_决策树详解01 文章目录 一.决策树优缺点 二.泰坦尼克号幸存者案例 三.随机森林介绍 1.随机森林的分类 2.重要参数 [1]n_esti ...

  8. gini系数 决策树_案例7:机器学习--使用决策树实现泰坦尼克号乘客生存率预测...

    一.决策树简介 1.1 什么是决策树? 决策树:是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果,本质是一颗由多个判断节点组成的树. ...

  9. Python_机器学习_算法_第4章_4.决策树算法

    Python_机器学习_算法_第4章_4.决策树算法 文章目录 Python_机器学习_算法_第4章_4.决策树算法 决策树算法 学习目标 4.1 决策树算法简介 学习目标 小结 4.2 决策树分类原 ...

最新文章

  1. SAP MM PO Item Category 内部code的用处?
  2. 小型软件项目开发流程探讨
  3. 如何查看oracle用户具有的权限和角色
  4. Linux学习:文件属性函数
  5. VTK:图片之ImageCheckerboard
  6. JMS中queue和topic区别
  7. Chap2-构造函数语意学
  8. kotlin 二进制_Kotlin程序检查数字是否为二进制
  9. 【HDU - 1247】Hat’s Words(字典树,预处理,tricks)
  10. 中国牛逼的程序员有哪些?入职华为两天转正,半个月升主任
  11. 英语口语练习软件测试简历,软件测试员英语简历范文
  12. 一个年轻的码农的一个C#项目
  13. ACM经验分享[转]
  14. 开发者需要的 9 款代码比较工具
  15. 人脸识别的代码及问题
  16. Vue 仿网易云音乐 WebApp
  17. 微信小程序 — 生成二维码功能
  18. openwrt php wifi 钓鱼,Openwrt自动扫描WiFi并连接中继
  19. linux 默认ping的端口,linux的ping命令端口号
  20. 计算机专业会学计量经济学吗,计量经济学的论文

热门文章

  1. mysql-8.0.12_MySQL 8.0.12-winx64 安装
  2. 老树新芽,在ES6下使用Express
  3. 电子签章,一章通用还有多远?
  4. 占位符语法-Scala
  5. app测试移动应用测试 (功能测试)适合0基础学习
  6. Android 怎么实现支持所有View的通用的下拉刷新控件
  7. 闪马智能创始人兼CEO彭垚入选2021年度张江杰出人才拟表彰名单
  8. H5兼容问题及解决方法
  9. Android仿腾讯手机管家实现桌面悬浮窗小火箭发射的动画效果
  10. 解决Windows环境下PHP连接MySQL很慢的问题