文章目录

  • 决策树与随机森林
    • 一、决策树
      • 1.决策树之信息论基础
      • 2.决策树的划分依据- 信息增益
      • 3.常见决策树使用的算法
      • 4.sklearn决策树API
      • 5.决策树案例-泰坦尼克号乘客生存分类
      • 6.决策树的优点与缺点
    • 2.随机森林-集成学习方法
      • 1.集成学习方法、随机森林的概念
      • 2.算法原理介绍
      • 3.集成学习API
      • 4. 随机森林调优-泰坦尼克号乘客生存分析
      • 5.随机森林的优点与缺点

决策树与随机森林

一、决策树

1.决策树之信息论基础

信息熵的概念

案例:每猜一次给一块钱,告诉我是否猜对了,那么我需要掏多少钱才能知道谁是冠军?
我可以把球编上号,从1到32,然后提问:冠 军在1-16号吗?依次询问,只需要五次,
就可以知道结果。该案例中信息熵为:
H = -(p1logp1 + p2logp2 + ... + p32log32)信息和消除不确定性是相联系的,即信息熵越大,不确定性越大H的专业术语称之为信息熵,单位为比特。
公式:

2.决策树的划分依据- 信息增益

注:信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度特征A对训练数据集D的信息增益g(D,A),定义为集合D的信息熵H(D)与特征A给定条件下D
的信息条件熵H(D|A)之差,即公式为:


信息增益计算


3.常见决策树使用的算法

ID3
信息增益 最大的准则
C4.5
信息增益比 最大的准则
CART
回归树: 平方误差 最小
分类树: 基尼系数   最小的准则 在sklearn中可以选择划分的原则

4.sklearn决策树API

# 决策树分类器
class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,
random_state=None)# 参数介绍
criterion:默认是’gini’系数,也可以选择信息增益的熵’entropy’
max_depth:树的深度大小
random_state:随机数种子# 方法
decision_path:返回决策树

5.决策树案例-泰坦尼克号乘客生存分类

泰坦尼克号乘客生存分类模型流程:1、pd读取数据
2、选择有影响的特征,处理缺失值(age数据存在缺失)
特征值pclass-社会经济阶层的代表-字符串
特征值age-年龄-浮点数
特征值sex-性别
目标值survived-存活-布尔类型(0、1)
3、进行特征工程,pd转换字典,特征抽取;x_train.to_dict(orient="records")
4、决策树估计器流程
决策树的结构、本地保存:1、sklearn.tree.export_graphviz() 该函数能够导出DOT格式
tree.export_graphviz(estimator,out_file='tree.dot’,feature_names=[‘’,’’])
2、工具:(能够将dot文件转换为pdf、png)
安装graphviz(这个模块不好安装)
这个功能太鸡肋了。所以这个包都没人用了,停止维护好久了。还是停留在很老的版本。和很多内置的包都不匹配了。3、运行命令
然后我们运行这个命令
$ dot -Tpng tree.dot -o tree.png
# 决策树对泰坦尼克号乘客生存进行分类
import pandas as pd
from sklearn.feature_extraction import DictVectorizer
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier, export_graphvizdef decision():'''泰坦尼克号乘客生存分析:return'''# 一、pd读取数据titanic = pd.read_csv("http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt")# 二、处理数据# 1.取出特征值与目标值x = titanic[['pclass', 'age',  'sex']]y = titanic['survived']# 2.处理缺失值x['age'].fillna(x['age'].mean(), inplace= True)# 3.分割数据集到训练集与测试集x_train, x_test, y_train, y_test = train_test_split(x, y ,test_size=0.25)# 三、进行特征工程# 1.特征抽取# 将有类别特征的数据转换成字典数据,x_train.to_dict(orient = 'records')# 然后再把字典中一些类别数据,分别转换成特征(one-hot编码)dict = DictVectorizer(sparse= False)x_train = dict.fit_transform(x_train.to_dict(orient = 'records'))# transform按照原先标准转换x_test = dict.transform(x_test.to_dict(orient = 'records'))# 返回类别数据print(dict.get_feature_names())print(x_train)# 四、决策树估计器流程dec = DecisionTreeClassifier()dec.fit(x_train, y_train)# 得到预测结果print('预测结果为:\n',dec.predict(x_test))# 预测准确率print('预测准确率为:\n',dec.score(x_test, y_test))# 导出决策树的结构export_graphviz(dec, out_file='./tree.dot', feature_names=['年龄', '一等', '二等', '三等', '女', '男'])return Noneif __name__ == '__main__':decision()# ['age', 'pclass=1st', 'pclass=2nd', 'pclass=3rd', 'sex=female', 'sex=male']
# [[ 9.          0.          0.          1.          0.          1.        ]
#  [31.19418104  1.          0.          0.          0.          1.        ]
#  [59.          1.          0.          0.          1.          0.        ]
#  ...
#  [21.          0.          0.          1.          0.          1.        ]
#  [31.19418104  0.          0.          1.          1.          0.        ]
#  [31.19418104  0.          0.          1.          0.          1.        ]]
# 预测结果为:
#  [0 0 0 0 0 0 0 1 1 1 0 0 0 1 0 1 0 0 0 0 1 0 1 0 0 0 1 0 0 0 0 0 1 1 1 0 0
#  1 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 1 0 0 1 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0
#  0 0 0 0 0 0 1 1 0 0 1 0 0 0 0 0 0 1 1 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 0
#  0 1 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 1 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1 1 0
#  0 0 0 1 0 0 0 0 0 1 0 0 1 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
#  0 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 0 1 0 1 0 1 1 1 0 0 0 0 0
#  0 0 0 1 1 0 0 1 0 0 0 1 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 1 1 0
#  0 0 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
#  0 0 1 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0]
# 预测准确率为:
#  0.7963525835866262

6.决策树的优点与缺点

优点:
1.简单的理解和解释,树木可视化。
2 。需要很少的数据准备,其他技术通常需要数据归一化,
缺点:
1.决策树学习者可以创建不能很好地推广数据的过于复杂的树,这被称为过拟合。
2.决策树可能不稳定,因为数据的小变化可能会导致完全不同的树被生成

2.随机森林-集成学习方法

1.集成学习方法、随机森林的概念

集成学习方法:
集成学习通过建立几个模型组合的来解决单一预测问题。它的工作原理是生成多个分类器/模型,
各自独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的做出预
测。什么是随机森林?
定义:在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别
树输出的类别的众数而定。

2.算法原理介绍

学习算法根据下列算法而建造每棵树:
•用N来表示训练用例(样本)的个数,M表示特征数目。1.从N个训练用例(样本)中以有放回抽样的方式每次取一个,取样N次,
形成一个训练集(即bootstrap取样),并用未抽到的用例(样本)作预测,评估其误差。
2.输入特征数目m,用于确定决策树上一个节点的决策结果;其中m应远小于M。
为什么要随机抽样训练集?  
如果不进行随机抽样,每棵树的训练集都一样,那么最终训练出的树分类结果也是完全一样的为什么要有放回地抽样?
如果不是有放回的抽样,那么每棵树的训练样本都是不同的,都是没有交集的,这样每棵树
都是“有偏的”,都是绝对“片面的”(当然这样说可能不对),也就是说每棵树训练出来都是
有很大的差异的;而随机森林最后分类取决于多棵树(弱分类器)的投票表决。

3.集成学习API

# 随机森林分类器
class sklearn.ensemble.RandomForestClassifier(n_estimators=10,
criterion=’gini’,max_depth=None, bootstrap=True, random_state=None)# 参数
n_estimators:integer,optional(default = 10) 森林里的树木数量
criteria:string,可选(default =“gini”)分割特征的测量方法
max_depth:integer或None,可选(默认=无)树的最大深度
bootstrap:boolean,optional(default = True)是否在构建树时使用放回抽样
max_features = "auto",每个决策树的最大特征数量超参数:n_estimators:决策树的数量100,200,300,500,800,1200max_depth:每棵树的深度限制5,8,15,25,30

4. 随机森林调优-泰坦尼克号乘客生存分析

# 随机森林调优-泰坦尼克号乘客生存分析
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction import DictVectorizer
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCVdef forest():'''随机森林模型选择与调优:return:'''# 一.读取数据titanic = pd.read_csv("http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt")# 二、处理数据# 1.提取特征值与目标值x = titanic[['pclass','age','sex']]y = titanic['survived']# 2.处理age中的缺失值x['age'].fillna(x['age'].mean(),inplace=True)# 3.分割数据集  训练集与测试集、x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.25)# 三、进行特征工程# 特征抽取# 将特征值的类别特征数据转换成字典数据# 再将类别数据转换成one-hot编码dict = DictVectorizer(sparse=False)x_train = dict.fit_transform(x_train.to_dict(orient='records'))x_test = dict.transform(x_test.to_dict(orient='records'))# 返回类别数据print(dict.get_feature_names())print(x_train)# 四、随机森林-模型的选择与调优# 1.构造实例rf = RandomForestClassifier()# 2.交叉验证与网格搜索param = {'n_estimators':[100,200,300,500,800,1200],'max_depth':[5,8,15,25,30 ]}gc = GridSearchCV(rf,param_grid=param,cv=5)gc.fit(x_train,y_train)# 准确率print('准确率是:\n',gc.score(x_test,y_test))# 在交叉验证中最好的结果print('交叉验证中最好的结果是:\n',gc.best_score_)# 最好的参数模型print('最好的参数模型:\n',gc.best_estimator_)# 查看选择的参数模型print('查看选择的参数模型:\n',gc.best_params_)if __name__ == '__main__':forest()# ['age', 'pclass=1st', 'pclass=2nd', 'pclass=3rd', 'sex=female', 'sex=male']
# [[53.          0.          1.          0.          1.          0.        ]
#  [31.19418104  0.          0.          1.          0.          1.        ]
#  [31.19418104  0.          0.          1.          0.          1.        ]
#  ...
#  [31.19418104  1.          0.          0.          1.          0.        ]
#  [31.19418104  0.          0.          1.          0.          1.        ]
#  [25.          1.          0.          0.          0.          1.        ]]
# 准确率是:
#  0.8267477203647416
# 交叉验证中最好的结果是:
#  0.8201219512195121
# 最好的参数模型:
#  RandomForestClassifier(bootstrap=True, class_weight=None, criterion='gini',
#             max_depth=5, max_features='auto', max_leaf_nodes=None,
#             min_impurity_decrease=0.0, min_impurity_split=None,
#             min_samples_leaf=1, min_samples_split=2,
#             min_weight_fraction_leaf=0.0, n_estimators=800, n_jobs=None,
#             oob_score=False, random_state=None, verbose=0,
#             warm_start=False)
# 查看选择的参数模型:
#  {'max_depth': 5, 'n_estimators': 800}

5.随机森林的优点与缺点

随机森林的优点:
1.在当前所有算法中,具有极好的准确率
2.能够有效地运行在大数据集上
3.能够处理具有高维特征的输入样本,而且不需要降维
4.能够评估各个特征在分类问题上的重要性
5.对于缺省值问题也能够获得很好得结果

机器学习算法基础5-决策树与随机森林相关推荐

  1. 机器学习(九)决策树,随机森林

    机器学习(九)决策树,随机森林 文章目录 机器学习(九)决策树,随机森林 一.决策树 1.1 如何理解决策树 1.2 信息论的一些基础 1.3 信息论与决策树的关系 1.3.1 信息增益 1.4 常见 ...

  2. 机器学习系列(10)_决策树与随机森林回归

    注:本篇文章接上一篇文章>>机器学习系列(9)_决策树详解01 文章目录 一.决策树优缺点 二.泰坦尼克号幸存者案例 三.随机森林介绍 1.随机森林的分类 2.重要参数 [1]n_esti ...

  3. 【机器学习】熵、决策树、随机森林 总结

    一.熵 公式: −∑i=1np(xi)∗log2p(xi)-\sum_{i = 1}^{n}{p(xi)*log_2p(xi)}−i=1∑n​p(xi)∗log2​p(xi) ∑i=1np(xi)∗l ...

  4. 机器学习算法总结之Bagging与随机森林

    写在前面 集成学习(ensemble learning)是现在非常热门的机器学习方法,在各种大赛中都可以看到它的身影.它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务, ...

  5. python 决策树和随机森林_【python机器学习笔记】使用决策树和随机森林预测糖尿病...

    决策树:一种有监督的机器学习分类算法,可以训练已知数据,做出对未知数据的预测. 机器学习中的分类任务殊途同归,都是要根据已知的数据特征获得最佳的分类方法.对于一个有多个特征的数据,我们需要知道根据哪些 ...

  6. MATLAB机器学习系列-9:决策树和随机森林的原理及其例子代码实现

    决策树 原理 决策树通过把样本实例从根节点排列到某个叶子节点来对其进 行分类.树上的每个非叶子节点代表对一个属性取值的测试, 其分支就代表测试的每个结果:而树上的每个叶子节点均代表 一个分类的类别,树 ...

  7. 独家 | 决策树VS随机森林——应该使用哪种算法?(附代码链接)

    作者:Abhishek Sharma 翻译:陈超 校对:丁楠雅 本文长度为4600字,建议阅读20分钟 本文以银行贷款数据为案例,对是否批准顾客贷款申请的决策过程进行了算法构建,并对比了决策树与随机森 ...

  8. 决策树 vs 随机森林

    本文以银行贷款数据为案例,对是否批准顾客贷款申请的决策过程进行了算法构建,并对比了决策树与随机森林两种机器学习算法之间的异同及各自的优劣. 让我们从一个思维实验来阐述决策树和随机森林之间的差异. 假设 ...

  9. 机器学习算法基础(6): 信息论,决策树和随机森林

    分类算法:决策树.随机森林 1.认识决策树 决策树的划分 2.信息的度量和作用 信息的单位:比特 信息熵 信息和消除不确定性相关 2.决策树的划分以及案例 决策树的划分--信息增益 概念:当得知一个特 ...

  10. 【机器学习基础】(五):通俗易懂决策树与随机森林及代码实践

    与SVM一样,决策树是通用的机器学习算法.随机森林,顾名思义,将决策树分类器集成到一起就形成了更强大的机器学习算法.它们都是很基础但很强大的机器学习工具,虽然我们现在有更先进的算法工具来训练模型,但决 ...

最新文章

  1. word 数组 转 指针_Word之VBA丨文档中的图片怎样批量加边框?
  2. 目标检测别再刷榜了,让流感知来展示真正的技术!ECCV 2020 最佳论文提名
  3. Final变量的含义
  4. Thread和Runnable的区别
  5. 疯狂福利 | 美剧《天赋异禀》1-2季免费送!播放超12亿!刷了整整一晚上,太上头!...
  6. css中属性设置成百分比
  7. 【jmx】java jmx 获取 kafka topic的logStart LogEnd信息
  8. Raffi Krikorian 为“在运行中进行架构重写”提供了指南
  9. 如何架设Linux打印服务器
  10. MatLab imhist
  11. php渐变闪动字体代码,33种超好看彩色闪字渐变代码分享
  12. RecyclerView 实现横向滚动效果
  13. 局域网架设 NOD 32 镜像更新服务器
  14. 【将图片格式转换为调色盘模式——语义分割】
  15. EasyWord的使用——POI操作Word的工具
  16. Moveit!入门教程-配置助手
  17. amp;#9733;平衡法则在生活中的应用
  18. 视频号直播带货变现,微信小商店常见的10大问题丨国仁网络
  19. 成都信息工程大学计算机学院复试指南
  20. kaili更新国内源,“没有数字签名”错误

热门文章

  1. Cannot modify header information的解决方法
  2. 如何进行ASP.NET MVC 的测试
  3. 【matlab】解决每次打开.m文件都会弹出新窗口
  4. Java之导入Excel 后端篇
  5. 49 字符大小写排序
  6. Java Error(四)
  7. thinkphp框架知识点
  8. String.format(%03d, i)在数字前面补零
  9. 强制不使用“兼容性视图”的HTML代码
  10. Windows Media Services (1) 搭建 电影服务器教程