1.决策树基本流程

1、下列选项哪个是决策树的预测过程?

  1. 将测试示例从一个中间节点开始,沿着划分属性所构成的“判定测试序列”下行,直到叶节点
  2. 将测试示例从一个中间节点开始,沿着划分属性所构成的“判定测试序列”上行,直到根节点
  3. 将测试示例从叶节点开始,沿着划分属性所构成的“判定测试序列”上行,直到根节点
  4. 将测试示例从根节点开始,沿着划分属性所构成的“判定测试序列”下行,直到叶节点

2、决策树学习的策略是什么?

  1. 分而治之
  2. 集成
  3. 聚类
  4. 排序

3、决策树训练时,若当前结点包含的样本全属于同一类别,则____(需要/无需)划分

无需

2.信息增益划分

1、信息熵是度量样本集合 [填空1] 最常用的一种指标

  1. 纯度
  2. 对称差
  3. 大小
  4. 重要性

2、以下哪个选项是信息增益的定义?

  1. 划分前的信息熵-划分后的信息熵
  2. 划分后的信息熵-划分前的信息熵
  3. 划分前的信息熵/划分后的信息熵
  4. 划分后的信息熵+划分前的信息熵

本题选A。注意到信息熵是衡量样本纯度的概念,相对于物理中的“无序程度”,信息熵越大则代表样本无序程度大,对应样本纯度低;在决策树进行划分后,我们希望的是样本的纯度变大,对应于信息熵应该为熵减的过程;故我们想要求得的信息增益为前后两者之差,为得到一个正值,我们选取前者减后者。

3、在二分类任务中,若当前样本集合的正类和负类的数量刚好各一半,此时信息熵为____(保留一位小数)

1.0

本题答案为1.0。注意到信息熵的计算公式为Σ-pi log(pi),而我们用比特为单位时取的底数正是2,在这里,我们进行计算,信息熵应为-1/2*(-1)±1/2*(-1)=1,答案要求保留一位小数,故在这里填1.0即可。

3.其他属性划分

1、下列说法错误的是()

  1. CART算法在候选属性集合中选取使划分后基尼指数最大的属性
  2. 划分选择的各种准择对泛化性能的影响有限
  3. 划分选择的各种准择对决策树尺寸有较大影响
  4. 相比划分准则,剪枝方法和程度对决策树泛化性能的影响更为显著

本题选A。首先注意到基尼指数和信息熵一样,是衡量一个随机变量的纯度的,其定义为Σpi(1-pi),从定义可以看出随机变量越随机,亦即越不纯,基尼指数越大;我们希望的是更快做好分类,当然是要选取划分后基尼指数最小的属性,这样达到的增益是最大的。对于B选项,影响决策树泛化性能的更为直接的因素是减枝。对于C选项,不同的划分方法准则对决策树的深度宽度等影响较小。对于D,D是正确的。

2、增益率的表达式是Gain_ratio(D,a)=()

  1. Gain(D,a)+IV(a)
  2. Gain(D,a)-IV(a)
  3. Gain(D,a)*IV(a)
  4. Gain(D,a)/IV(a)

3、对西瓜数据集2.0(《机器学习》教材第76页),划分前的信息熵为0.998,若使用编号属性进行划分,则信息增益为____(保留3位小数)

0.998

本题答案为0.998。注意到对编号属性划分后,每个类里只有一个样本,故信息熵为0,故信息增益就是划分前的信息熵,故本题应该填0.998。

4.决策树的剪枝

1、剪枝是决策树学习算法对付什么现象的主要手段?

  1. 标记噪声
  2. 数据少
  3. 过拟合
  4. 欠拟合

2、提前终止某些分支的生长,这个策略的名称是什么?

  1. 预剪枝
  2. 后剪枝
  3. 不剪枝
  4. 随机剪枝

3、决策树剪枝的基本策略有“____”和“后剪枝”

预剪枝

5.缺失值的处理

1、决策树算法一般是如何对缺失属性进行处理的?

  1. 仅使用无缺失的样例
  2. 对缺失值进行随机填充
  3. 用其他属性值预测缺失值
  4. 利用“样本赋权,权重划分”的思想解决

2、决策树处理缺失值的基本思路是“样本赋权,权重划分”,其中“权重划分”指的是以下哪个选项?

  1. 给定划分属性,若样本在该属性上的值缺失,会按进入权重最大的一个分支
  2. 给定划分属性,若样本在该属性上的值缺失,会按权重随机进入一个分支
  3. 给定划分属性,若样本在该属性上的值缺失,会按权重同时进入所有分支
  4. 给定划分属性,若样本在该属性上的值缺失,会按进入权重最小的一个分支

本题选C。决策树处理划分属性时在划分属性上值缺失的问题,会将该带有缺失值的样本同时划入所有子节点,但此时要调整该样本的权重,为样本权重乘以无缺失样本中属性在对应取值上样本所占的比例。直观来看,其实就是让同一个样本以不同的概率到不同的子节点中去,这也符合我们对决策树的直观感觉。

3、决策树处理有缺失值的样本时,仅通过____(有/无)缺失值的样例来判断划分属性的优劣

本题填无。决策树在确定划分属性的优劣时,只采用无缺失值的样例。我们回顾选取划分属性时的准则,在含有属性缺失值时,我们修改后的信息增益公式为无缺失值样本的比例乘以用该属性划分后在无缺失值上带来的信息增益,从这里可以看出对于选取划分属性时和缺失值样本本身并无关系。

6.章节测试

1、决策树划分时,若当前结点包含的样本集合为空,则应该怎么做?

  1. 将结点标记为叶结点,其类别标记为父结点中样本最多的类
  2. 将结点标记为叶结点,其类别标记为父结点中样本最少的类
  3. 将结点标记为叶结点,其类别标记为父结点中任意一个类
  4. 从其他结点获得样本,继续进行划分

2、决策树划分时,当遇到以下哪种情形时,将结点标记为叶节点,其类别标记为当前样本集中样本数最多的类

  1. 当前属性集为空,或所有样本在所有属性上取值相同
  2. 当前属性集不为空,或所有样本在所有属性上取值相同
  3. 当前结点包含的样本集合为空,或当前属性集为空
  4. 当前结点包含的样本集合为空,或所有样本在所有属性上取值相同

本题选A。在决策树基本算法中,有三种情形会导致递归返回:(1)当前结点包含的样本全属于同一类别,无需划分; (2)当前属性集为空,或是所有样本在所有属性上取值相同,无法划分; (3)当前结点包含的样本集合为空,不能划分。 在第(2)种情形下,我们把当前结点标记为叶节点,并将其类别设定该结点所含样本最多的类别。 在第(3)种情形下,同样把当前结点标记为叶节点,但将其类别设定为其父结点所含样本最多的类别。综上,本题选A。其他选项错误。

3、ID3决策树划分时,选择信息增益最____(大/小)的属性作为划分属性

4、若数据集的属性全为离散值,决策树学习时,____(可以/不可以)把用过的属性再作为划分属性。

不可以

5、下列说法错误的是()

  1. 信息增益准则对可取值较少的属性有所偏好
  2. C4.5算法并不是直接选择增益率最大的候选划分属性
  3. 基尼指数反映了从数据集中随机抽取两个样本,其类别标记不一致的概率
  4. 基尼指数越小,数据集的纯度越高

本题选A。信息增益准则对可取值较多的属性有所偏好。比如我们选取编号属性作为属性进行划分,由于编号独特唯一,条件熵为0了,每一个结点中只有一类,所以 “纯度” 非常高。其他正确。

6、对西瓜数据集2.0(《机器学习》教材第76页),属性“触感”和“色泽”,____(触感/色泽)的增益率更大

色泽

7、对西瓜数据集2.0(《机器学习》教材第76页),属性“色泽”的基尼指数为____(保留2位有效数字)

0.43

6/17∗(1−(1/2)2−(1/2)2)+6/17∗(1−(4/6)2−(2/6)2)+5/17∗(1−(1/5)2−(4/5)2)=0.42756/17*(1-(1/2)^2-(1/2)^2)+6/17*(1-(4/6)^2-(2/6)^2)+5/17*(1-(1/5)^2-(4/5)^2)=0.42756/17∗(1−(1/2)2−(1/2)2)+6/17∗(1−(4/6)2−(2/6)2)+5/17∗(1−(1/5)2−(4/5)2)=0.4275

8、随着决策树学习时的深度增加,会发生什么现象?

  1. 位于叶结点的样本越来越少
  2. 不会把数据中不该学到的特性学出来
  3. 决策树不会过拟合
  4. 叶结点一定学到一般规律

本题选A。在决策树选取属性进行划分后,每个叶结点的样本数都比上一个结点要少,越来越少是正确的。对于B选项,过拟合后就会学到不该学到的特性。C选项任何模型都会过拟合,决策树解决过拟合的方法就是剪枝。D选项过拟合后学不到一般规律。

9、只学习一颗决策树作为模型时,一般____(要/不要)选择剪枝

不剪枝容易造成过拟合

10、(本题需阅读教材79-83页中剪枝的例子)考虑如图的训练集和验证集,其中“性别”、“喜欢ML作业”是属性,“ML成绩高”是标记。假设已生成如图的决策树,用精度(accuracy)衡量决策树的优劣,预剪枝的结果____(是/不是)原本的决策树。

不是

首先看性别,划分之前选择标记均为“是”,验证集精度为25%;划分后性别男标记为“否”,性别女标记为“是”,验证集精度为25%,因此没有带来泛化性能的提升。剪枝后决策树为直接判定标记为“是”。

11、(本题需阅读教材79-83页中剪枝的例子)考虑如图的训练集和验证集,其中“性别”、“喜欢ML作业”是属性,“ML成绩高”是标记。假设已生成如图的决策树,用精度(accuracy)衡量决策树的优劣,后剪枝的结果____(是/不是)原本的决策树。

首先看喜欢,剪枝前验证集精度为50%,剪枝后该结点标记为“否”,验证集精度为25%,因此不剪枝。最终决策树为原本的决策树。

12、下列说法正确的是()

  1. 决策树处理缺失值时,仅通过无缺失值的样例来判断划分属性的优劣
  2. 若数据中存在缺失值,决策树会仅使用无缺失的样例
  3. 若数据维度很高,不容易出现大量缺失值
  4. 对决策树,给定划分属性,若样本在该属性上的值缺失,会随机进入一个分支

本题选A。决策树在确定划分属性的优劣时,只采用无缺失值的样例。我们回顾选取划分属性时的准则,在含有属性缺失值时,我们修改后的信息增益公式为无缺失值样本的比例乘以用该属性划分后在无缺失值上带来的信息增益,从这里可以看出对于选取划分属性时和缺失值样本本身并无关系。对于B选项,缺失值属性的样例也需要在后续被使用。C选项数据维度高时容易出现缺失值。D选项进入的方法是“样本赋权,权重划分”。

13、决策树处理有缺失值样本时,一个样本在各子节点中的权重和为____(保留一位小数)

1.0

本题填1.0。我们知道在处理决策树样本具有缺失值的问题时我们采用的方法是“样本赋权,权重划分”的方法,缺失值样本以一定的权重进入所有的子节点,权重的给定方式为样本权重乘以无缺失样本中属性在对应取值上样本所占的比例,故对所有子节点求和即为样本的初始权重,我们知道根节点各样本的初始权重我们都设为1,故答案为1,这里保留一位小数应该填1.0。

14、关于剪枝,下列说法错误的是()

  1. 对于同一棵树,进行预剪枝和后剪枝得到的决策树是一样的
  2. 决策树的剪枝算法可以分为两类,分别称为预剪枝和后剪枝
  3. 预剪枝在树的训练过程中通过停止分裂对树的规模进行限制
  4. 后剪枝先构造出一棵完整的树,然后通过某种规则消除掉部分节点,用叶子节点替代

15、通常来说,子节点的基尼不纯度与其父节点是什么样的关系?

  1. 通常更低
  2. 通常更高
  3. 永远更高
  4. 永远更低

本题选A。首先我们决策树划分是要选取信息增益更大的属性值进行划分,目的为降低样本的不纯度,故我们希望其基尼不纯度是降低的;但并非所有划分都会让基尼不纯度一致降低,可以想到一种反例:我们假设有一个样本具有大概率,剩余其余所有样本均匀分配小概率;在一次划分中,我们将样本分为上述两类,其基尼不纯度会增大。故本题答案应为通常更低。

西瓜书习题 - 4.决策树相关推荐

  1. 西瓜书学习记录-决策树(第四章)

    西瓜书学习记录-决策树(第四章) 第四章啦 知乎黄耀鹏-决策树算法的Python实现: https://zhuanlan.zhihu.com/p/20794583 一般分布例子如下:(见下具体例题) ...

  2. 西瓜书习题3.4 (交叉验证法)

    西瓜书习题3.4 (交叉验证法): ​ 选择两个UCI数据集,比较10折交叉验证法和留一法所估计出的对率回归的错误率. 1.数据集长啥样? ​ 于是就下载了一组UCI数据集,它长这样: 至于这些数据是 ...

  3. 西瓜书重温(四): 决策树手推版

    1. 写在前面 今天复习的决策树模型, 对应的是西瓜书的第四章内容, 关于决策树模型,重要性不言而喻了, 这个是后面集成学习模型的基础, 集成学习里面不管是bagging家族里面的代表随机森林,还是b ...

  4. 西瓜书习题详解 机器学习能在互联网搜索的哪些环节起什么作用?

    看完了西瓜书的第一章,课后习题有这个问题.我先将这个问题定义为:机器学习在搜索引擎上的应用. 维基百科:搜索引擎(英语:Search Engine)是一种信息检索系统,旨在协助搜索存储在计算机系统中的 ...

  5. 西瓜书习题 - 3.线性模型

    1.线性回归 1.以下哪个不是线性模型的优势? 简单 复杂 基本 可理解性好 2.示例的属性可以属于下列哪个类别? 无序的离散属性 连续属性 有序的离散属性 以上都对 3.一卖伞商家想利用天气来预测销 ...

  6. 西瓜书习题4.3(基于信息熵的决策树)

    试编程实现基于信息熵进行划分选择的决策树算法,并为表4.3中数据生成一颗决策树. 代码 import numpy as np import matplotlib.pyplot as plt from ...

  7. 西瓜书习题 - 10.机器学习初步考试

    1.当学习器在训练集上把训练样本自身的一些特征当作了所有潜在样本都具有的一般性质时,泛化性能可能会因此下降,这种现象一般称为 ____.(过拟合/欠拟合) 过拟合 2.对于两个样本点 (0,0),(1 ...

  8. 西瓜书笔记4: 决策树

    目录 4.1基本流程 决策树学习基本算法 4.2划分选择 4.2.1 信息增益 信息熵 信息增益 西瓜例子 4.2.2 增益率 4.2.3 基尼指数 4.3 剪枝处理 4.3.1 预剪枝 4.3.2 ...

  9. [西瓜书习题] 第二章 模型评估与选择

    2.1 数据集包含1000个样本,其中500个正例,500个反例,将其划分为包含70%样本的训练集和30%样本的测试集用于留出法评估,试估算共有多少种划分方式. 留出法将数据集划分为两个互斥的集合,为 ...

  10. 西瓜书习题 - 8.集成学习

    1.集成学习 1.下列关于集成学习描述错误的是哪个? 集成学习只能使用若干个相同类型的学习器 集成学习使用多个学习器解决问题 集成学习在许多比赛中取得了优异的成绩 集成学习在英文中是一个外来词 2.下 ...

最新文章

  1. [总结篇1]openstack neutron 中是如何做到二层隔离的
  2. C/C++语言链表的排序与查找定位
  3. webpack和vue的按需加载组件、console、抓包
  4. excel合并同类项数据求和
  5. 服务器自动运行python_在虚拟主机中安装了python程序,如何使它在服务器上自动运行?...
  6. matplotlib 横坐标少了一个点_收藏起来!比 matplotlib 效率高十倍的数据可视化神器!...
  7. bzoj2300 [HAOI2011]防线修建 离线凸包
  8. larveral 直接拷贝安装_重新安装网卡驱动的电脑操作
  9. 二维离散傅里叶变换 matlab
  10. html输入框只能输入整数,轻松让INPUT框只能输入整数
  11. 冻结html表格标题列,HTML表格冻结第一列 | 学步园
  12. 《一课经济学》六、政府价格管制
  13. Simon Game实现过程记录
  14. linux cpu大小,如何查看linux cpu大小
  15. 计算机基础教研活动记录,信息技术教研活动记录
  16. mysql群发消息_百万级用户量的站内信群发数据库设计
  17. JVM---数据存储和访问(类文件结构)
  18. java怎么通过坐标定位控件_[已解决] 可以定位到控件, 但每次执行 click () 方法会报空指针错误 java.lang.NullPointerException...
  19. 亿嘉和机器人上市了吗_年科研投入近10% 亿嘉和誓做“世界一流机器人公司”...
  20. LogicalDOC含有中文字符的各种报错

热门文章

  1. win7右键反应特别慢的问题
  2. The content of element type mapper must match (cache-ref|cache|resultMap*|parameterMap*|sql*|inse
  3. delphi调试需要管理员权限程序报错“Unable to create process:请求的操作需要提升”
  4. ubuntu20.04 安装ROS2和ROS1共存
  5. Sparten6/Kintex-7 DDR3 IP仿真实例
  6. 微信公众平台开发(16)--公众号二维码管理
  7. 阿里设计师:B端产品国际版体验设计
  8. 苹果 watchOS 3.2 首个测试版:剧场模式、SiriKit
  9. codeforces 1328 B. K-th Beautiful String
  10. Raspberry Pi