文章目录

  • 实验思维导图
  • 1.决策树--ctree()--iris
    • 1.1 数据
      • 1.1.1 程序包加载
      • 1.1.2 数据集探索
      • 1.1.3 数据集拆分
    • 1.2 训练
      • 1.2.1 设置因变量、自变量
      • 1.2.2 决策树建模
      • 1.2.3 查看训练结果
      • 1.2.4 绘制决策树
    • 1.3 预测
      • 1.3.1 测试集预测
      • 1.3.2 预测结果分析
  • 2.决策树--rpart()--bodyfat
    • 2.1 数据
      • 2.1.1 程序包加载
      • 2.1.2 数据集探索
      • 2.1.3 数据集拆分
    • 2.2 训练
      • 2.2.1 设置因变量、自变量
      • 2.2.2 决策树建模
      • 2.2.3 查看训练结果
      • 2.2.4 绘制决策树
    • 2.3 优化
      • 2.3.1 优化模型(剪枝)
    • 2.3.2 绘制决策树(剪枝后)
    • 2.4 预测
      • 2.4.1 测试集预测
      • 2.4.2 预测值的极值
  • 3.随机森林--randomForest()--iris
    • 3.1 程序包加载
    • 3.2 数据集拆分
    • 3.3 随机森林建模
    • 3.4 测试集预测
    • 3.5 绘制概率图
  • 实验分析
  • 资料
  • Reference
  • 总结

实验思维导图

1.决策树–ctree()–iris

1.1 数据

1.1.1 程序包加载

简洁安装程序包:将提供的程序包手动复制到R的镜像下的library下:
例如我的路径:D:\R-4.1.3\library,将重复的程序包替换即可。底部提供资料

library(ISLR)
library(TH.data)
library(MASS)
library(multcomp)
library(matrixStats)
library(libcoin)
library(survival)
library(coin)
library(zoo)
library(strucchange)
library(modeltools)
library(mvtnorm)
library(party)
library(grid)
#party包中的ctree():
#1.用于创建决策树
#2.提供用于控制决策树训练的几个参数,例如 midSplit、Min Busket、MaxSurrogate 和 MaxDepth

1.1.2 数据集探索

#查看iris数据集
str(iris)


数据集大小:150条数据、5个变量

在许多的科研著作中都在iris数据集上做分类操作。该数据集由3种不同类型的鸢尾花的50个样本数据构成。其中的一个种类与另外两个种类是线性可分离的,后两个种类是非线性可分离的。这个数据集包含了5个属性:

  • Sepal.Length(花萼长度),单位是cm。
  • Sepal.Width(花萼宽度),单位是cm。
  • Petal.Length(花瓣长度),单位是cm。
  • Petal.Width(花瓣宽度),单位是cm。
    种类:
  • Iris Setosa(山鸢尾)
  • Iris Versicolour(杂色鸢尾)
  • Iris Virginica(维吉尼亚鸢尾)

1.1.3 数据集拆分

#拆分数据集
ind <- sample(2, nrow(iris), replace= TRUE, prob=c(0.7, 0.3))
#同ind <- sample(x = 2,size = nrow(iris),replace=TRUE,prob = c(0.7,0.3))
trainData <- iris[ind==1,]
testData <- iris[ind==2,]
#sample():
#x即拆分为两部分
#size即抽样大小
#replace = TRUE
#有放回抽样,“replace”就是重复的意思,即可以重复对元素进行抽样,也就是所谓的有放回抽样。
#prob即“probability”(概率)
#查看拆分后的数据
str(trainData)
str(testData)

1.2 训练

1.2.1 设置因变量、自变量

#myFormula指定了Species为目标变量,其余所有变量为自变量
myFormula <- Species ~ Sepal.Length + Sepal.Width + Petal.Length + Petal.Width

1.2.2 决策树建模

iris_ctree <- ctree(myFormula, data=trainData)

1.2.3 查看训练结果

#检查预测结果
table(predict(iris_ctree),trainData$Species)

#Setosa鸢尾花:37条
#Versicolour鸢尾花:34条
#Virginica鸢尾花:34条
#既是Versicolour鸢尾花也是Virginica鸢尾花:4条
#共109条数据
#查看已经训练过的决策树
print(iris_ctree)

1.2.4 绘制决策树

#绘制决策树
plot(iris_ctree)

#决策树简化形式
plot(iris_ctree,type="simple")


每个叶子节点的条形图显示一个实例被划分到某个种类到概率:

  • 节点2“n=37,y=(1,0,0)”,表示该节点包含37个训练实例,并且所有实例都属于“setosa”
  • 节点6“n=7,y=(0,0.429,0.571)”,表示该节点包含7个训练实例,42.9%的实例属于“Versicolour”,57.1%的实例属于“Virginica”,7×57.1%≈4,对应了4.1节的“既是Versicolour鸢尾花也是Virginica鸢尾花:4条”

1.3 预测

1.3.1 测试集预测

#predict()进行预测
testPred <- predict(iris_ctree,newdata = testData)#查看预测结果
table(testPred,testData$Species)

1.3.2 预测结果分析

#Setosa鸢尾花:13条
#Versicolour鸢尾花:11条
#Virginica鸢尾花:15条
#既是Versicolour鸢尾花也是Virginica鸢尾花:1条
#既是Virginica鸢尾花也是Versicolour鸢尾花:1条
#共41条数据

2.决策树–rpart()–bodyfat

2.1 数据

2.1.1 程序包加载

install.package('rpart')
library(rpart)
#rpart这个包被用来在'bodyfat'这个数据集的基础上建立决策树。
#函数raprt()可以建立一个决策树,并且可以选择最小误差的预测。

2.1.2 数据集探索

data("bodyfat", package = "TH.data")
dim(bodyfat)  #查看数据尺寸
attributes(bodyfat)  #查看数据变量名、行名称、数据类型等
bodyfat[1:5,]  #查看前五行数据

可以看到数据集有71条数据,包括10个变量:

  • age:年龄。
  • DEXfat:以DXA计算的体脂重,响应变量。
  • waistcirc:腰围。
  • hipcirc:臀围。
  • elbowbreadth:肘宽。
  • kneebreadth:膝宽。
  • anthro3a:三项人体测量的对数和。
  • anthro3b:三项人体测量的对数和。
  • anthro3c:三项人体测量的对数和。
  • anthro4:三项人体测量的对数和。

2.1.3 数据集拆分

set.seed(1234)  #设置随机种子
ind <- sample(2, nrow(bodyfat), replace=TRUE, prob=c(0.7, 0.3))
bodyfat.train <- bodyfat[ind==1,]
bodyfat.test <- bodyfat[ind==2,]#查看拆分后的数据
str(bodyfat.train)
str(bodyfat.test)

2.2 训练

2.2.1 设置因变量、自变量

#将DEXfat设置为因变量,age、waistcirc、hipcirc、elbowbreadth、kneebreadth为自变量
myFormula <- DEXfat ~ age + waistcirc + hipcirc + elbowbreadth + kneebreadth

2.2.2 决策树建模

bodyfat_rpart <- rpart(myFormula, data = bodyfat.train,control = rpart.control(minsplit = 10))
#函数格式rpart(formula, data, weights, subset, na.action = na.rpart, method,model = FALSE, x = FALSE, y = TRUE, parms, control, cost, ...)
#control设置决策树的参数
#minsplit用于指定节点的最小样本量,默认为20.当节点样本量小于指定值时将不再继续分组

2.2.3 查看训练结果

print(bodyfat_rpart)

2.2.4 绘制决策树

plot(bodyfat_rpart)#为决策树添加文本标签
text(bodyfat_rpart, use.n=T)

2.3 优化

2.3.1 优化模型(剪枝)

#选择预测误差最小值的预测树,从而优化模型
opt <- which.min(bodyfat_rpart$cptable[,"xerror"])
cp <- bodyfat_rpart$cptable[opt, "CP"]#prune函数可以实现最小代价复杂度剪枝法
bodyfat_prune <- prune(bodyfat_rpart, cp = cp)
#cp为复杂度系数,上面的办法选择具有最小xerror的cp的办法

这里最开始不太明白“bodyfat_rpart$cptable”,简单查看一下:

2.3.2 绘制决策树(剪枝后)

#绘制决策树
plot(bodyfat_prune)
#添加文本标签
text(bodyfat_prune, use.n=T)


对比结果就会发现,优化模型后,就是将hipcirc<99.5这个分层给去掉了,也许是因为这个分层没有必要,可以思考一下为什么选择预测误差最小的结果的决策树的分层反而没有那么细

2.4 预测

2.4.1 测试集预测

DEXfat_pred <- predict(bodyfat_prune, newdata=bodyfat.test)

2.4.2 预测值的极值

xlim <- range(bodyfat$DEXfat)#绘制散点图
plot(DEXfat_pred ~ DEXfat,data=bodyfat.test,xlab="Observed",ylab="Predicted",ylim=xlim,xlim=xlim)
#此处plot(纵坐标数据~横坐标数据,数据,横坐标名称,纵坐标名称,纵坐标轴数值取bodyfat$DEXfat范围,横坐标轴数值取bodyfat$DEXfat范围)#添加对角线
abline(a=0, b=1)


优化后的决策树将会用来预测,预测的结果会与实际的值进行对比。
上面的代码中,使用函数abline()绘制一条斜线。
一个好的模型的预测值应该是约接近真实值越好,也就是说大部分的点应该落在斜线上面或者在斜线附近。

3.随机森林–randomForest()–iris

3.1 程序包加载

install.packages('randomForest')
library(randomForest)

我们使用包randomForest并利用鸢尾花数据建立一个预测模型,包里面的randomForest()函数有两点不足:

  • 第一,它不能处理缺失值,使得用户必须在使用该函数之前填补这些缺失值
  • 第二,每个分类属性的最大数量不能超过32个,如果属性超过32个,那么在使用randomForest()之前那些属性必须被转化。也可以通过另外一个包’cforest’建立随机森林,并且这个包里面的函数并不受属性的最大数量约束,尽管如此,高维的分类属性会使得它在建立随机森林的时候消耗大量的内存和时间。

3.2 数据集拆分

ind <- sample(2, nrow(iris), replace=TRUE, prob=c(0.7, 0.3))
trainData <- iris[ind==1,]
testData <- iris[ind==2,]

3.3 随机森林建模

rf <- randomForest(Species ~ ., data=trainData, ntree=100, proximity=TRUE)
#Species ~ .指的是Species与其他所有属性之间的等式
# ntree:指定随机森林所包含的决策树数目,默认为500
# proximity:逻辑参数,是否计算模型的临近矩阵,主要结合MDSplot()函数使用#查看预测结果
table(predict(rf), trainData$Species)


由上图的结果可知,即使在决策树中,仍然有误差,第二类和第三类话仍然会被误判

#查看模型
print(rf)


通过输入print(rf)知道误判率为3.81%

#绘制每一棵树的误判率的图
plot(rf)


可以通过输入plot(rf)绘制每一棵树的误判率的图

3.4 测试集预测

最后,在测试集上测试训练集上建立的随机森林,并使用table()和margin()函数检测预测结果。

irisPred <- predict(rf, newdata=testData)#查看测试集预测结果
table(irisPred, testData$Species)

3.5 绘制概率图

#绘制每一个观测值被判断正确的概率图
plot(margin(rf, testData$Species))

实验分析

  • 由测试集结果可知,ctree()的目前版本(0.9~9995)不能很好的处理缺失值,因此含有缺失值的实例有时会被划分到左子树中,有时会被划分到右子树中,这是由替代规则决定的。
  • 如果训练集中的一个变量在使用函数 ctree()构建决策树后被剔除,那么在对测试集进行预测时也必须包含该变量,否则调用函数 predict()会失败。
  • 如果测试集与实训集对分类变量水平值不同,对测试集对预测也会失败。解决此问题的另一个方法是,使用训练集构建一棵决策树后,再利用第一课决策树中包含的所有变量重新调用 ctree()建立一棵新的决策树,并根据测试集中分类变量的水平值显示的设置训练数据。

资料

实验资料/阿里云盘

程序包/百度网盘

提取码:h030(无需提取码,以防万一)

Reference

【R语言进行数据挖掘】决策树和随机森林/文博客园@tjxj666

决策树与随机森林的R语言实现/文数据分析师

决策树及R语言实现/文博客园@数学男

决策树与R语言(RPART)/文CSDN@tarim

R语言笔记:机器学习【决策树(Decision Tree】/文CSDN@LdyInG_

Learn R | Random Forest of Data Mining(下)/文知乎@Jason

《R语言与数据挖掘最佳实践和经典案例》—— 1.3 数据集/文阿里云开发者社区@华章出版社

分类-回归树模型(CART)在R语言中的实现/文CSDN@周小馬

分类-回归树模型(CART)在R语言中的实现/文博客园@刘小子

鸢尾花数据集/文简书@littlehei

R语言sample()函数/文简书@tianzhanlan

总结

  • 个人感觉函数直接看官方文档效率会高一些,技术社区里常用的函数会有些人写一下注释,冷门函数看官方文档比较好
  • 技术社区常用技术水文较多,一错全错

【R】【决策树】【随机森林】相关推荐

  1. 决策树随机森林GBDTXGBoost学习笔记以及代码实现

    文章目录 1. 引入 1.1 决策树 1.2 随机森林 1.3 GBDT(Gradient Boosting Decision Tree)梯度提升决策树 1.4 XGBoost(eXtreme Gra ...

  2. R语言随机森林模型:计算随机森林模型的特征重要度(feature importance)并可视化特征重要度、使用少数重要特征拟合随机森林模型(比较所有特征模型和重要特征模型在测试集上的表现差异)

    R语言随机森林模型:计算随机森林模型的特征重要度(feature importance)并可视化特征重要度.使用少数重要特征拟合随机森林模型(比较所有特征模型和重要特征模型在测试集上的表现差异) 目录

  3. R语言随机森林回归(randomforest)模型构建

    R语言随机森林回归(randomforest)模型构建 目录 R语言随机森林回归(randomforest)模型构建

  4. 使用R构建随机森林回归模型(Random Forest Regressor)

    使用R构建随机森林回归模型(Random Forest Regressor) 目录 使用R构建随机森林回归模型(Random Forest Regressor) 安装包randomForest 缺失值 ...

  5. 基于6种监督学习(逻辑回归+决策树+随机森林+SVM+朴素贝叶斯+神经网络)的毒蘑菇分类

    公众号:尤而小屋 作者:Peter 编辑:Peter 大家好,我是Peter~ 本文是kaggle案例分享的第3篇,赛题的名称是:Mushroom Classification,Safe to eat ...

  6. 决策树 随机森林 xgboost_一文搞定XGboost 面试常见问题

    本文主要介绍xgboost常见的面试问题,主要回答如下几个问题: 1.GBDT的原理,且介绍与xgboost的区别. 2.决策树节点分裂时如何选择特征. 3.分类树和回归树的区别. 4.与Random ...

  7. 决策树 随机森林 xgboost_决策树算法之随机森林

    在 CART 分类回归树的基础之上,我们可以很容易的掌握随机森林算法,它们之间的区别在于,CART 决策树较容易过拟合,而随机森林可以在一定程度上解决该问题. 随机森林的主要思想是:使用随机性产生出一 ...

  8. 决策树随机森林GBDT

    决策树算法 这篇文章: https://zhuanlan.zhihu.com/p/26703300  对决策树算法说的非常深入浅出 决策树模型核心是下面几个部分: (1) 结点和有向边组成 (2) 结 ...

  9. r语言随机森林回归预测_从零实现回归随机森林

    一.前言 回归随机森林作为一种机器学习和数据分析领域常用且有效的算法,对其原理和代码实现过程的掌握是非常有必要的.为此,本文将着重介绍从零开始实现回归随机森林的过程,对于随机森林和决策树的相关理论原理 ...

  10. 决策树 随机森林 xgboost_推荐收藏 | 决策树、随机森林、bagging、boosting、Adaboost、GBDT、XGBoost总结...

    作者:ChrisCao https://zhuanlan.zhihu.com/p/75468124 一. 决策树决策树是一个有监督分类模型,本质是选择一个最大信息增益的特征值进行分割,直到达到结束条件 ...

最新文章

  1. 多个mapper的事务回滚_揭秘蚂蚁金服分布式事务 Seata 的AT、Saga和TCC模式
  2. A-Softmax的总结及与L-Softmax的对比——SphereFace
  3. linux wheel组
  4. ElasticSearch 2 (37) - 信息聚合系列之内存与延时
  5. 757计算机电子元件,飞行员的好帮手 波音757的发动机指示与机组报警系统简介...
  6. java程序 开发工具_15款Java程序员必备的开发工具
  7. linux虚拟光驱挂载方法,Linux操作系统下虚拟光驱(iso)的挂载
  8. MySQL运算符ppt_mysql运算符
  9. 关于大量数据的随机打乱重保存.(少了详细解释,之后会更新)
  10. 对话框应用程序的DoModal()源代码
  11. linux 编译程序的四个过程
  12. 民营银行是怎样炼成的:优中选优最终挑选出5家
  13. 浏览器主页被篡改解决小妙招
  14. 用计算机来猜星座,[转]实用推荐---三个问题猜出对方的星座
  15. 按月统计的sql语句
  16. 【数据库系统原理】第四章 高级数据库模型:统一建模语言UML、对象定义语言ODL
  17. SharePoint 常用开发工具
  18. vscode设置 pylint把违反了编码风格标准的提示信息忽略掉,就是Variable name “**“ doesn‘t conform to snake_case naming
  19. Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting
  20. Apache ShardingSphere 企业行|走进中商惠民

热门文章

  1. mysql中新建数据库create table的COLLATE是什么?
  2. 有鼻炎的注意啦~万金不卖的秘方快收着!
  3. AS01 AS02资产屏幕开发实例
  4. 读《桥—巴拉克•奥巴马的人生及其崛起》有感
  5. 浩辰CAD看图王中如何一键替换CAD图纸中大量相同的文字?
  6. 【图】2345看图王
  7. 杰理之唤醒源获取【篇】
  8. virtual box 安装oracle linux,Virtual Box下安装Oracle Linux 6.3
  9. GO工具开发|基于网站API的子域名与IP反查工具(二)
  10. 使用CSS网格布局放置元素的七种方法