(2017-05-18 银河统计)

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。

决策树是对数据进行分类,以此达到预测的目的。决策树方法先根据训练集数据形成决策树,如果该树不能对所有对象给出正确的分类,那么选择一些例外加入到训练集数据中,重复该过程一直到形成正确的决策集。决策树代表着决策集的树形结构。

决策树由决策结点、分支和叶子组成。决策树中最上面的结点为根结点,每个分支是一个新的决策结点,或者是树的叶子。每个决策结点代表一个问题或决策,通常对应于待分类对象的属性。每一个叶子结点代表一种可能的分类结果。沿决策树从上到下遍历的过程中,在每个结点都会遇到一个测试,对每个结点上问题的不同的测试输出导致不同的分支,最后会到达一个叶子结点,这个过程就是利用决策树进行分类的过程,利用若干个变量来判断所属的类别。

一、决策树构造及其运用

1、树的定义

树是由节点和边两种元素组成的结构。理解树,就需要理解几个关键词:根节点、父节点、子节点和叶子节点。

父节点和子节点是相对的,说白了子节点由父节点根据某一规则分裂而来,然后子节点作为新的父亲节点继续分裂,直至不能分裂为止。而根节点是没有父节点的节点,即初始分裂节点,叶子节点是没有子节点的节点,如下图所示:

决策树利用如上图所示的树结构进行决策,每一个非叶子节点是一个判断条件,每一个叶子节点是结论。从跟节点开始,经过多次判断得出结论。

2、如何利用树进行决策

从一个用户贷款分类例子说起:

银行希望能够通过一个人的信息(包括职业、年龄、收入、学历)去判断他是否有贷款的意向,从而更有针对性地完成工作。下表是银行现在能够掌握的信息,我们的目标是通过对下面的数据进行分析建立一个预测用户贷款一下的模型。

职业 年龄 收入 学历 是否贷款
自由职业 28 5000 高中
工人 36 5500 高中
工人 42 2800 初中
白领 45 3300 小学
白领 25 10000 本科
白领 32 8000 硕士
白领 28 13000 博士
自由职业 21 4000 本科
自由职业 22 3200 小学
工人 33 3000 高中
工人 48 4200 小学

上边中有4个客户的属性,如何综合利用这些属性去判断用户的贷款意向?

决策树的做法是每次选择一个属性进行判断,如果不能得出结论,继续选择其他属性进行判断,直到能够“肯定地”判断出用户的类型或者是上述属性都已经使用完毕。比如说我们要判断一个客户的贷款意向,我们可以先根据客户的职业进行判断,如果不能得出结论,再根据年龄作判断,这样以此类推,直到可以得出结论为止。

决策树用树结构实现上述的判断流程,如下图所示:

上图所示的是通过输入用户的信息,输出用户的贷款意向。如果要判断某一客户是否有贷款的意向,直接根据用户的职业、收入、年龄以及学历就可以分析得出用户的类型。如某客户的信息为:{职业、年龄,收入,学历}={工人、39, 1800,小学},将信息输入上述决策树,可以得到下列的分析步骤和结论。

第一步:根据该客户的职业进行判断,选择“工人”分支;

第二步:根据客户的年龄进行选择,选择年龄”<=40”这一分支;

第三步:根据客户的学历进行选择,选择”小学”这一分支,得出该客户无贷款意向的结论。

3、决策树的构建

从上述步骤可以看出,决策生成过程中有几个个重要的问题:

数据如何分割
如何选择分裂的属性
什么时候停止分裂

假如我们已经选择了一个分裂的属性,那怎样对数据进行分裂呢?

I、数据分割

分裂属性的数据类型分为离散型和连续性两种情况,对于离散型的数据,按照属性值进行分裂,每个属性值对应一个分裂节点;对于连续性属性,一般性的做法是对数据按照该属性进行排序,再将数据分成若干区间,如[0,10]、[10,20]、[20,30]、…,一个区间对应一个节点,若数据的属性值落入某一区间则该数据就属于其对应的节点。

设有数据表如下:

职业 年龄 是否贷款
白领 30
工人 40
工人 20
学生 15
学生 18
白领 42

属性“职业”是离散型变量,有三个取值,分别为白领、工人和学生,根据三个取值对原始的数据进行分割,如下表所示:

取值 贷款人数 不贷款人数
白领 1 1
工人 0 2
学生 1 1

上表可以表示成如下的决策树结构:

属性“年龄”是连续性变量,这里将数据分成三个区间,分别是[0,20]、(20,40]、(40,*],则每一个区间的分裂结果如下:

年龄分组 贷款人数 不贷款人数
[0 ,20] 1 2
(20,40] 0 2
(40,* ] 1 0

上表可以表示成如下的决策树结构:

II、分裂属性的选择

前面介绍了分裂属性是如何对数据进行分割的,那么怎样选择分裂的属性呢?

决策树采用贪婪思想进行分裂,即选择可以得到最优分裂结果的属性进行分裂。那么怎样才算是最优的分裂结果?最理想的情况当然是能找到一个属性刚好能够将不同类别分开,但是大多数情况下分裂很难一步到位,我们希望每一次分裂之后孩子节点的数据尽量”纯”,以下图为例:

从图例1和图例2可以明显看出,属性2分裂后的子节点比属性1分裂后的子节点更纯:属性1分裂后每个节点的两类的数量还是相同,跟根节点的分类结果相比完全没有提高;按照属性2分裂后每个节点各类的数量相差比较大,可以很大概率认为第一个子节点的输出结果为类1,第2个子节点的输出结果为2。

选择分裂属性是要找出能够使所有子节点数据最纯的属性,决策树使用信息增益、信息增益率或者基尼值作为选择属性的依据(相关概念及算法在ID3和C4.5中解释)。

III、停止分裂的条件

决策树不可能无限制地生长,总有停止分裂的时候,最极端的情况是当节点分裂到只剩下一个数据点时自动结束分裂,但这种情况下树过于复杂,而且预测的精度不高。一般情况下为了降低决策树复杂度和提高预测的经度,会适当提前终止节点的分裂

以下是决策树节点停止分裂的一般性条件:

a. 最小节点数:当节点的数据量小于一个指定的数量时,不继续分裂。两个原因:一是数据量较少时,再做分裂容易强化噪声数据的作用;二是降低树生长的复杂性。提前结束分裂一定程度上有利于降低过拟合的影响b. 熵或者基尼值小于阀值:熵和基尼值的大小表示数据的复杂程度,当熵或者基尼值过小时,表示数据的纯度比较大,如果熵或者基尼值小于一定程度数,节点停止分裂c. 决策树的深度达到指定的条件:节点的深度可以理解为节点与决策树跟节点的距离,如根节点的子节点的深度为1,因为这些节点与跟节点的距离为1,子节点的深度要比父节点的深度大1。决策树的深度是所有叶子节点的最大深度,当深度到达指定的上限大小时,停止分裂d. 所有特征已经使用完毕,不能继续进行分裂:被动式停止分裂的条件,当已经没有可分的属性时,直接将当前节点设置为叶子节点

IV、决策树的构建方法

根据决策树的输出结果,决策树可以分为分类树和回归树,分类树输出的结果为具体的类别,而回归树输出的结果为一个确定的数值。

决策树的构建算法主要有ID3、C4.5、CART三种,其中ID3和C4.5是分类树,CART是分类回归树。本文介绍ID3和C4.5技术,其中ID3是决策树最基本的构建算法,而C4.5和CART是在ID3的基础上进行优化的算法。

二、ID3算法

ID3算法最早是由罗斯昆(J.Ross Quinlan)于1975年在悉尼大学提出的一种分类预测算法,算法的核心是“信息熵(Information entropy)”。ID3算法通过计算每个属性的信息增益,认为信息增益高的是好属性,每次划分选取信息增益最高的属性为划分标准,重复这个过程,直至生成一个能完美分类训练样例的决策树。

1、信息熵

信息论之父 C. E. Shannon 在1948年发表的论文“通信的数学理论(A Mathematical Theory of Communication)”中,Shannon指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。Shannon借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式。

事件\(a_{_i}\)的信息量\(I(a_{_i})\)可如下度量:

\[I(a_{_i})=p(a_{_i})\times\frac{1}{log_{_2}p(a_{_i})}\]

其中\(p(a_{_i})\)表示事件\(a_{_i}\)发生的概率。

假设有n个互不相容的事件\(a_{_1},a_{_2},a_{_3},\dots.,a_{_n}\),它们中有且仅有一个发生,则其平均的信息量可如下度量:

\[I(a_{_1},a_{_2},a_{_3},\dots,a_{_n})=\sum\limits_{i=1}^nI(a_{_i})=\sum\limits_{i=1}^np(a_{_i})\times\frac{1}{log_{_2}p(a_{_i})}=-\sum\limits_{i=1}^np(a_{_i})\times{log_{_2}p(a_{_i})}\]

信息熵是消除不确定性所需信息量的度量,也即未知事件可能含有的信息量。

例如,投掷一枚分币,正面和反面朝上的概率相对,为\(\frac{1}{2}\),这一随机试验所有可能结果的发生概率所包含的信息量的大小,即信息熵值为,

\[I(a_{_1},a_{_2})=-\sum\limits_{i=1}^2p(a_{_i})\times{log_{_2}p(a_{_i})}=-(\frac{1}{2}\times log_{_2}\frac{1}{2}+\frac{1}{2}\times log_{_2}\frac{1}{2})=log_{_2}2=1\]

假设这枚分币正反面不均匀,一面朝上的概率为0.3,另一面为0.7,信息熵值为,

\[I(a_{_1},a_{_2})=-\sum\limits_{i=1}^2p(a_{_i})\times{log_{_2}p(a_{_i})}=-(0.3\times log_{_2}0.3+0.7\times log_{_2}0.7)=0.8813\]

对于极端情况,一面朝上的概率为0,另一面为1,信息熵值为,

\[I(a_{_1},a_{_2})=-\sum\limits_{i=1}^2p(a_{_i})\times{log_{_2}p(a_{_i})}=-(0\times log_{_2}0+1\times log_{_2}1)=0\]

式中,对数底数可以为任何数,不同的取值对应了熵的不同单位。通常对数的底数取2,并规定当\(p(a_{_i})=0\)时,

\[I(a_{_i})=p(a_{_i})\times\frac{1}{log_{_2}p(a_{_i})}=0\]

当正反面朝上概率相等时,结果最难猜,信息熵最大;正面朝上概率为0.7、反面朝上概率为0.3时,应该猜正面朝上,会有70%胜算,但信息熵减小;正面朝上概率为1、反面朝上概率为0时,正面一定朝上,这时信息熵为0。

2、ID3算法中信息量大小的度量

在运用ID3算法进行决策树分类过程中,假设D是训练样本集合,则D的熵(entropy)表示为:

\[info(D)=-\sum\limits_{i=1}^mp_{_i}\times{log_{_2}(p_{_i})}\]

其中\(p_{_i}\)表示第i个类别在整个训练元组中出现的概率,可以用属于此类别元素的数量除以训练元组元素总数量作为估计。熵的实际意义表示是D中元组的类标号所需要的平均信息量。

现对训练样本集合D按属性A进行划分,则A对D划分的期望信息为:

\[info_{_A}(D)=-\sum\limits_{j=1}^m\frac{|D_{_j}|}{|D|}\times{info(D_{_j})}\]

式中|D|为练样本量,\(D_{_j}\)为属性A的不同水平样本数,\(info(D_{_j})\)为属性A的不同水平的熵。

而信息增益为,

\[gain(A)=info(D)-info_{_A}(D)\]

3、ID3算法案例

学习数据挖掘技术的最好方法是找到详细案例和看懂计算过程。有时算法虽然不难,但公式表达很难理解。

案例:SNS社区中不真实账号检测,使用ID3算法构造决策树。

日志密度/L 好友密度/F 真实头像/H 真实账户/R
S S NO NO
S L YES YES
L M YES YES
M M YES YES
L M YES YES
M L NO YES
M S NO NO
L M NO YES
M S NO YES
S S YES NO

表中S、M和L分别表示小、中和大。

设L、F、H和R表示日志密度、好友密度、是否使用真实头像和账号是否真实,试用ID3算法构造决策树。

解:设D为10个样本集,其中决策属性(真实账户/R)有7个YES、3个NO。决策属性信息熵为:

\[info(D)=-\sum\limits_{i=1}^mp_{_i}\times{log_{_2}(p_{_i})}=-(\frac{7}{10}log_{_2}\frac{7}{10}+\frac{3}{10}log_{_2}\frac{3}{10})=0.8813\]

日志密度属性期望信息熵为:

\[\small{info_{_L}(D)=-\sum\limits_{j=1}^m\frac{|D_{_j}|}{|D|}\times{info(D_{_j})}=-[\frac{3}{10}\times{(0\times log_{_2}0+1\times log_{_2}1)}+\frac{4}{10}\times{(\frac{1}{4}\times log_{_2}\frac{1}{4}+\frac{3}{4}\times log_{_2}\frac{3}{4})}+\frac{3}{10}\times{(\frac{2}{3}\times log_{_2}\frac{2}{3}+\frac{1}{3}\times log_{_2}\frac{1}{3})}]=0.6}\]

好友密度属性期望信息熵为:

\[\small{info_{_F}(D)=-\sum\limits_{j=1}^m\frac{|D_{_j}|}{|D|}\times{info(D_{_j})}=-[\frac{2}{10}\times{(0\times log_{_2}0+1\times log_{_2}1)}+\frac{4}{10}\times{(\frac{1}{4}\times log_{_2}\frac{1}{4}+\frac{3}{4}\times log_{_2}\frac{3}{4})}+\frac{4}{10}\times{(0\times log_{_2}0+1\times log_{_2}1)}]=0.3245}\]

真实头像属性期望信息熵为:

\[\small{info_{_H}(D)=-\sum\limits_{j=1}^m\frac{|D_{_j}|}{|D|}\times{info(D_{_j})}=-[\frac{5}{10}\times{(\frac{2}{5}\times log_{_2}\frac{2}{5}+\frac{3}{5}\times log_{_2}\frac{3}{5})}+\frac{5}{10}\times{(\frac{1}{5}\times log_{_2}\frac{1}{5}+\frac{4}{5}\times log_{_2}\frac{4}{5})}]=0.8464}\]

日志密度信息增益: \(gain(L)=info(D) - info_{_L}(D) = 0.8813 – 0.6 = 0.2813\)
好友密度信息增益: \(gain(F)=info(D) - info_{_F}(D) = 0.8813 – 0.3245 = 0.5568\)
真实头像信息增益: \(gain(H)=info(D) - info_{_H}(D) = 0.8813 – 0.8464 = 0.0349\)

因为好友密度(F)具有最大的信息增益(好友密度信息熵最小,最易分割),所以第一次分裂选择好友密度F为分裂属性,分裂后的结果如下:

图中按好友密度(F)分割树,水平M和L为单一水平决策属性分支(树叶),没有必要继续分割。水平S包含决策属性的不同水平,应该继续分割。待分割决策信息表为,

日志密度/L 真实头像/H 真实账户/R
S NO NO
M NO NO
M NO YES
S YES NO

此时,设D为4个样本集,其中决策属性(真实账户/R)有1个YES、3个NO。决策属性信息熵为:

\[info(D)=-\sum\limits_{i=1}^mp_{_i}\times{log_{_2}(p_{_i})}=-(\frac{1}{4}log_{_2}\frac{1}{4}+\frac{3}{4}log_{_2}\frac{3}{4})=0.8113\]

日志密度属性期望信息熵为:

\[\small{info_{_L}(D)=-\sum\limits_{j=1}^m\frac{|D_{_j}|}{|D|}\times{info(D_{_j})}=-[\frac{2}{4}\times{(\frac{1}{2}\times log_{_2}\frac{1}{2}+\frac{1}{2}\times log_{_2}\frac{1}{2})}+\frac{2}{4}\times{(0\times log_{_2}0+1\times log_{_2}1)}]=0.5}\]

真实头像属性期望信息熵为:

\[\small{info_{_H}(D)=-\sum\limits_{j=1}^m\frac{|D_{_j}|}{|D|}\times{info(D_{_j})}=-[\frac{3}{4}\times{(\frac{2}{3}\times log_{_2}\frac{2}{3}+\frac{1}{3}\times log_{_2}\frac{1}{3})}+\frac{1}{4}\times{(0\times log_{_2}0+1\times log_{_2}1)}]=0.6887}\]

日志密度信息增益: \(gain(L)=info(D) - info_{_L}(D) = 0.8113 – 0.5 = 0.2813\)
真实头像信息增益: \(gain(H)=info(D) - info_{_H}(D) = 0.8113 – 0.8464 = 0.6887\)

因为日志密度(L)具有最大的信息增益,所以第二次分裂选择日志密度(L)为分裂属性,分裂后的结果如下图表示:

图中,日志密度为M时,无法做出判断、也无法继续进行分裂。至此,决策树构建完毕。

设某人在SNS社区中的好友密度为L或M,无论其它属性水平取值如何,均可判定为是真实账户;如果某人在SNS社区中的好友密度为S、日志密度也为S,可判定为是虚假账户;如果某人在SNS社区中的好友密度为S、日志密度为M,应根据真实头像信息做出判断,由于样本过少,无法继续进行。

三、C4.5算法

ID3算法是决策树的一个经典的构造算法,但ID3算法也存在一些问题,比较突出的缺陷是信息增益的计算依赖于特征水平较多的特征,而属性取值最多的属性并不一定最优。例如,投掷一枚分币和一个色子这两个随机试验,所有可能的期望信息熵为,

\(entropy(掷分币)=-(\frac{1}{2}\times log_{_2}\frac{1}{2}+\frac{1}{2}\times log_{_2}\frac{1}{2})=log_{_2}2=1\)
\(\small{entropy(掷色子)=-(\frac{1}{6}\times log_{_2}\frac{1}{2}+\frac{1}{6}\times log_{_2}\frac{1}{2}+\frac{1}{6}\times log_{_2}\frac{1}{2}+\frac{1}{6}\times log_{_2}\frac{1}{2}+\frac{1}{6}\times log_{_2}\frac{1}{2}+\frac{1}{6}\times log_{_2}\frac{1}{2})=log_{_2}6\approx 2.585}\)

通过信息熵的定义可知,在给定特征水平数条件下,各水平发生概率相等(如掷筛子6个数字发生的概率都为\(\frac{1}{6}\)),期望信息熵最大。所以,当决策信息中某个变量特征水平较多时,ID3算法按信息增益指标往往会选择该变量或属性做为分割节点。

1、C4.5算法的两个基本公式

I、“分裂信息”公式

C4.5算法首先定义了“分裂信息”,其定义可以表示成:

\[split\_info_{_A}(D)=-\sum\limits_{j=1}^v\frac{|D_{_j}|}{|D|}\times{log_{_2}(\frac{|D_{_j}|}{|D|})}\]

式中,各符号意义与ID3算法相同,符号|D|为训练样本数、\(|D_{_j}|\)为属性A各水平样本数。

II、增益率

\[gain\_ratio(A)=\frac{ratio_{_A}(D)}{split\_info_{_A}(D)}\]

III、分裂信息和增益率计算实例

在ID3算法案例中(SNS社区中不真实账号检测),决策属性信息熵为:

\[info(D)=-\sum\limits_{i=1}^mp_{_i}\times{log_{_2}(p_{_i})}=-(\frac{1}{4}log_{_2}\frac{1}{4}+\frac{3}{4}log_{_2}\frac{3}{4})=0.8113\]

把决策属性替换成其它属性,即为各属性分裂信息熵。

日志密度分裂信息:

\[\small{split\_info_{_L}(D)=-\sum\limits_{j=1}^3\frac{|D_{_j}|}{|D|}\times{log_{_2}(\frac{|D_{_j}|}{|D|})}=-[\frac{3}{10}\times log_{_2}\frac{3}{10}+\frac{4}{10}\times log_{_2}\frac{4}{10}+\frac{3}{10}\times log_{_2}\frac{3}{10}]=1.57095}\]

好友密度分裂信息:

\[\small{split\_info_{_F}(D)=-\sum\limits_{j=1}^3\frac{|D_{_j}|}{|D|}\times{log_{_2}(\frac{|D_{_j}|}{|D|})}=-[\frac{4}{10}\times log_{_2}\frac{4}{10}+\frac{4}{10}\times log_{_2}\frac{4}{10}+\frac{2}{10}\times log_{_2}\frac{2}{10}]=1.5219}\]

真实头像分裂信息:

\[\small{split\_info_{_H}(D)=-\sum\limits_{j=1}^2\frac{|D_{_j}|}{|D|}\times{log_{_2}(\frac{|D_{_j}|}{|D|})}=-[\frac{5}{10}\times log_{_2}\frac{5}{10}+\frac{5}{10}\times log_{_2}\frac{5}{10}]=1}\]

由前面ID3算法已知,

日志密度信息增益: \(gain(L)=info(D) - info_{_L}(D) = 0.8813 – 0.6 = 0.2813\)
好友密度信息增益: \(gain(F)=info(D) - info_{_F}(D) = 0.8813 – 0.3245 = 0.5568\)
真实头像信息增益: \(gain(H)=info(D) - info_{_H}(D) = 0.8813 – 0.8464 = 0.0349\)

各属性增益率为,

日志密度信息增益率:\[gain\_ratio(L)=\frac{ratio_{_L}(D)}{split\_info_{_L}(D)}=\frac{0.2813}{1.57095}=0.1791\]

好友密度信息增益率: \[gain\_ratio(F)=\frac{ratio_{_F}(D)}{split\_info_{_F}(D)}=\frac{0.5568}{1.5219}=0.3659\]

真实头像信息增益率: \[gain\_ratio(H)=\frac{ratio_{_H}(D)}{split\_info_{_H}(D)}=\frac{0.0349}{1}=0.0349\]

由上述计算结果可知“好友密度”在属性中具有最大的信息增益比,取“好友密度”为分割属性,引出一个分枝,样本按此划分。对引出的每一个分枝再用此分类法进行分类,再引出分枝。

某属性的信息增益除以分裂信息,消除了属性水平数量多少的影响,使得分裂属性的选择更加合理。

四、样例代码

样例采用计算机购买意向信息表,

年龄 收入 学生 信誉 买计算机 计数
不买 64
不买 64
128
60
64
不买 64
64
不买 128
64
132
64
32
32
不买 63
1

该训练样本集为单项分组数据,为了便于程序代码处理,应将分组数据还原为未分组数据,并将中文信息转换为英文字符。

No. Age Income Student Reputation Buy Computer
1 Y H N G N
2 Y H N G N
3 Y H N G N
4 Y H N G N
5 Y H N G N
6 Y H N G N
7 Y H N G N
8 Y H N G N
9 Y H N G N
10 Y H N G N
11 Y H N G N
12 Y H N G N
13 Y H N G N
14 Y H N G N
15 Y H N G N
16 Y H N G N
17 Y H N G N
18 Y H N G N
19 Y H N G N
20 Y H N G N
21 Y H N G N
22 Y H N G N
23 Y H N G N
24 Y H N G N
25 Y H N G N
26 Y H N G N
27 Y H N G N
28 Y H N G N
29 Y H N G N
30 Y H N G N
31 Y H N G N
32 Y H N G N
33 Y H N G N
34 Y H N G N
35 Y H N G N
36 Y H N G N
37 Y H N G N
38 Y H N G N
39 Y H N G N
40 Y H N G N
41 Y H N G N
42 Y H N G N
43 Y H N G N
44 Y H N G N
45 Y H N G N
46 Y H N G N
47 Y H N G N
48 Y H N G N
49 Y H N G N
50 Y H N G N
51 Y H N G N
52 Y H N G N
53 Y H N G N
54 Y H N G N
55 Y H N G N
56 Y H N G N
57 Y H N G N
58 Y H N G N
59 Y H N G N
60 Y H N G N
61 Y H N G N
62 Y H N G N
63 Y H N G N
64 Y H N G N
65 Y H N E N
66 Y H N E N
67 Y H N E N
68 Y H N E N
69 Y H N E N
70 Y H N E N
71 Y H N E N
72 Y H N E N
73 Y H N E N
74 Y H N E N
75 Y H N E N
76 Y H N E N
77 Y H N E N
78 Y H N E N
79 Y H N E N
80 Y H N E N
81 Y H N E N
82 Y H N E N
83 Y H N E N
84 Y H N E N
85 Y H N E N
86 Y H N E N
87 Y H N E N
88 Y H N E N
89 Y H N E N
90 Y H N E N
91 Y H N E N
92 Y H N E N
93 Y H N E N
94 Y H N E N
95 Y H N E N
96 Y H N E N
97 Y H N E N
98 Y H N E N
99 Y H N E N
100 Y H N E N
101 Y H N E N
102 Y H N E N
103 Y H N E N
104 Y H N E N
105 Y H N E N
106 Y H N E N
107 Y H N E N
108 Y H N E N
109 Y H N E N
110 Y H N E N
111 Y H N E N
112 Y H N E N
113 Y H N E N
114 Y H N E N
115 Y H N E N
116 Y H N E N
117 Y H N E N
118 Y H N E N
119 Y H N E N
120 Y H N E N
121 Y H N E N
122 Y H N E N
123 Y H N E N
124 Y H N E N
125 Y H N E N
126 Y H N E N
127 Y H N E N
128 Y H N E N
129 M H N G Y
130 M H N G Y
131 M H N G Y
132 M H N G Y
133 M H N G Y
134 M H N G Y
135 M H N G Y
136 M H N G Y
137 M H N G Y
138 M H N G Y
139 M H N G Y
140 M H N G Y
141 M H N G Y
142 M H N G Y
143 M H N G Y
144 M H N G Y
145 M H N G Y
146 M H N G Y
147 M H N G Y
148 M H N G Y
149 M H N G Y
150 M H N G Y
151 M H N G Y
152 M H N G Y
153 M H N G Y
154 M H N G Y
155 M H N G Y
156 M H N G Y
157 M H N G Y
158 M H N G Y
159 M H N G Y
160 M H N G Y
161 M H N G Y
162 M H N G Y
163 M H N G Y
164 M H N G Y
165 M H N G Y
166 M H N G Y
167 M H N G Y
168 M H N G Y
169 M H N G Y
170 M H N G Y
171 M H N G Y
172 M H N G Y
173 M H N G Y
174 M H N G Y
175 M H N G Y
176 M H N G Y
177 M H N G Y
178 M H N G Y
179 M H N G Y
180 M H N G Y
181 M H N G Y
182 M H N G Y
183 M H N G Y
184 M H N G Y
185 M H N G Y
186 M H N G Y
187 M H N G Y
188 M H N G Y
189 M H N G Y
190 M H N G Y
191 M H N G Y
192 M H N G Y
193 M H N G Y
194 M H N G Y
195 M H N G Y
196 M H N G Y
197 M H N G Y
198 M H N G Y
199 M H N G Y
200 M H N G Y
201 M H N G Y
202 M H N G Y
203 M H N G Y
204 M H N G Y
205 M H N G Y
206 M H N G Y
207 M H N G Y
208 M H N G Y
209 M H N G Y
210 M H N G Y
211 M H N G Y
212 M H N G Y
213 M H N G Y
214 M H N G Y
215 M H N G Y
216 M H N G Y
217 M H N G Y
218 M H N G Y
219 M H N G Y
220 M H N G Y
221 M H N G Y
222 M H N G Y
223 M H N G Y
224 M H N G Y
225 M H N G Y
226 M H N G Y
227 M H N G Y
228 M H N G Y
229 M H N G Y
230 M H N G Y
231 M H N G Y
232 M H N G Y
233 M H N G Y
234 M H N G Y
235 M H N G Y
236 M H N G Y
237 M H N G Y
238 M H N G Y
239 M H N G Y
240 M H N G Y
241 M H N G Y
242 M H N G Y
243 M H N G Y
244 M H N G Y
245 M H N G Y
246 M H N G Y
247 M H N G Y
248 M H N G Y
249 M H N G Y
250 M H N G Y
251 M H N G Y
252 M H N G Y
253 M H N G Y
254 M H N G Y
255 M H N G Y
256 M H N G Y
257 L M N G Y
258 L M N G Y
259 L M N G Y
260 L M N G Y
261 L M N G Y
262 L M N G Y
263 L M N G Y
264 L M N G Y
265 L M N G Y
266 L M N G Y
267 L M N G Y
268 L M N G Y
269 L M N G Y
270 L M N G Y
271 L M N G Y
272 L M N G Y
273 L M N G Y
274 L M N G Y
275 L M N G Y
276 L M N G Y
277 L M N G Y
278 L M N G Y
279 L M N G Y
280 L M N G Y
281 L M N G Y
282 L M N G Y
283 L M N G Y
284 L M N G Y
285 L M N G Y
286 L M N G Y
287 L M N G Y
288 L M N G Y
289 L M N G Y
290 L M N G Y
291 L M N G Y
292 L M N G Y
293 L M N G Y
294 L M N G Y
295 L M N G Y
296 L M N G Y
297 L M N G Y
298 L M N G Y
299 L M N G Y
300 L M N G Y
301 L M N G Y
302 L M N G Y
303 L M N G Y
304 L M N G Y
305 L M N G Y
306 L M N G Y
307 L M N G Y
308 L M N G Y
309 L M N G Y
310 L M N G Y
311 L M N G Y
312 L M N G Y
313 L M N G Y
314 L M N G Y
315 L M N G Y
316 L M N G Y
317 L L Y G Y
318 L L Y G Y
319 L L Y G Y
320 L L Y G Y
321 L L Y G Y
322 L L Y G Y
323 L L Y G Y
324 L L Y G Y
325 L L Y G Y
326 L L Y G Y
327 L L Y G Y
328 L L Y G Y
329 L L Y G Y
330 L L Y G Y
331 L L Y G Y
332 L L Y G Y
333 L L Y G Y
334 L L Y G Y
335 L L Y G Y
336 L L Y G Y
337 L L Y G Y
338 L L Y G Y
339 L L Y G Y
340 L L Y G Y
341 L L Y G Y
342 L L Y G Y
343 L L Y G Y
344 L L Y G Y
345 L L Y G Y
346 L L Y G Y
347 L L Y G Y
348 L L Y G Y
349 L L Y G Y
350 L L Y G Y
351 L L Y G Y
352 L L Y G Y
353 L L Y G Y
354 L L Y G Y
355 L L Y G Y
356 L L Y G Y
357 L L Y G Y
358 L L Y G Y
359 L L Y G Y
360 L L Y G Y
361 L L Y G Y
362 L L Y G Y
363 L L Y G Y
364 L L Y G Y
365 L L Y G Y
366 L L Y G Y
367 L L Y G Y
368 L L Y G Y
369 L L Y G Y
370 L L Y G Y
371 L L Y G Y
372 L L Y G Y
373 L L Y G Y
374 L L Y G Y
375 L L Y G Y
376 L L Y G Y
377 L L Y G Y
378 L L Y G Y
379 L L Y G Y
380 L L Y G Y
381 L L Y E N
382 L L Y E N
383 L L Y E N
384 L L Y E N
385 L L Y E N
386 L L Y E N
387 L L Y E N
388 L L Y E N
389 L L Y E N
390 L L Y E N
391 L L Y E N
392 L L Y E N
393 L L Y E N
394 L L Y E N
395 L L Y E N
396 L L Y E N
397 L L Y E N
398 L L Y E N
399 L L Y E N
400 L L Y E N
401 L L Y E N
402 L L Y E N
403 L L Y E N
404 L L Y E N
405 L L Y E N
406 L L Y E N
407 L L Y E N
408 L L Y E N
409 L L Y E N
410 L L Y E N
411 L L Y E N
412 L L Y E N
413 L L Y E N
414 L L Y E N
415 L L Y E N
416 L L Y E N
417 L L Y E N
418 L L Y E N
419 L L Y E N
420 L L Y E N
421 L L Y E N
422 L L Y E N
423 L L Y E N
424 L L Y E N
425 L L Y E N
426 L L Y E N
427 L L Y E N
428 L L Y E N
429 L L Y E N
430 L L Y E N
431 L L Y E N
432 L L Y E N
433 L L Y E N
434 L L Y E N
435 L L Y E N
436 L L Y E N
437 L L Y E N
438 L L Y E N
439 L L Y E N
440 L L Y E N
441 L L Y E N
442 L L Y E N
443 L L Y E N
444 L L Y E N
445 M L Y E Y
446 M L Y E Y
447 M L Y E Y
448 M L Y E Y
449 M L Y E Y
450 M L Y E Y
451 M L Y E Y
452 M L Y E Y
453 M L Y E Y
454 M L Y E Y
455 M L Y E Y
456 M L Y E Y
457 M L Y E Y
458 M L Y E Y
459 M L Y E Y
460 M L Y E Y
461 M L Y E Y
462 M L Y E Y
463 M L Y E Y
464 M L Y E Y
465 M L Y E Y
466 M L Y E Y
467 M L Y E Y
468 M L Y E Y
469 M L Y E Y
470 M L Y E Y
471 M L Y E Y
472 M L Y E Y
473 M L Y E Y
474 M L Y E Y
475 M L Y E Y
476 M L Y E Y
477 M L Y E Y
478 M L Y E Y
479 M L Y E Y
480 M L Y E Y
481 M L Y E Y
482 M L Y E Y
483 M L Y E Y
484 M L Y E Y
485 M L Y E Y
486 M L Y E Y
487 M L Y E Y
488 M L Y E Y
489 M L Y E Y
490 M L Y E Y
491 M L Y E Y
492 M L Y E Y
493 M L Y E Y
494 M L Y E Y
495 M L Y E Y
496 M L Y E Y
497 M L Y E Y
498 M L Y E Y
499 M L Y E Y
500 M L Y E Y
501 M L Y E Y
502 M L Y E Y
503 M L Y E Y
504 M L Y E Y
505 M L Y E Y
506 M L Y E Y
507 M L Y E Y
508 M L Y E Y
509 Y M N G N
510 Y M N G N
511 Y M N G N
512 Y M N G N
513 Y M N G N
514 Y M N G N
515 Y M N G N
516 Y M N G N
517 Y M N G N
518 Y M N G N
519 Y M N G N
520 Y M N G N
521 Y M N G N
522 Y M N G N
523 Y M N G N
524 Y M N G N
525 Y M N G N
526 Y M N G N
527 Y M N G N
528 Y M N G N
529 Y M N G N
530 Y M N G N
531 Y M N G N
532 Y M N G N
533 Y M N G N
534 Y M N G N
535 Y M N G N
536 Y M N G N
537 Y M N G N
538 Y M N G N
539 Y M N G N
540 Y M N G N
541 Y M N G N
542 Y M N G N
543 Y M N G N
544 Y M N G N
545 Y M N G N
546 Y M N G N
547 Y M N G N
548 Y M N G N
549 Y M N G N
550 Y M N G N
551 Y M N G N
552 Y M N G N
553 Y M N G N
554 Y M N G N
555 Y M N G N
556 Y M N G N
557 Y M N G N
558 Y M N G N
559 Y M N G N
560 Y M N G N
561 Y M N G N
562 Y M N G N
563 Y M N G N
564 Y M N G N
565 Y M N G N
566 Y M N G N
567 Y M N G N
568 Y M N G N
569 Y M N G N
570 Y M N G N
571 Y M N G N
572 Y M N G N
573 Y M N G N
574 Y M N G N
575 Y M N G N
576 Y M N G N
577 Y M N G N
578 Y M N G N
579 Y M N G N
580 Y M N G N
581 Y M N G N
582 Y M N G N
583 Y M N G N
584 Y M N G N
585 Y M N G N
586 Y M N G N
587 Y M N G N
588 Y M N G N
589 Y M N G N
590 Y M N G N
591 Y M N G N
592 Y M N G N
593 Y M N G N
594 Y M N G N
595 Y M N G N
596 Y M N G N
597 Y M N G N
598 Y M N G N
599 Y M N G N
600 Y M N G N
601 Y M N G N
602 Y M N G N
603 Y M N G N
604 Y M N G N
605 Y M N G N
606 Y M N G N
607 Y M N G N
608 Y M N G N
609 Y M N G N
610 Y M N G N
611 Y M N G N
612 Y M N G N
613 Y M N G N
614 Y M N G N
615 Y M N G N
616 Y M N G N
617 Y M N G N
618 Y M N G N
619 Y M N G N
620 Y M N G N
621 Y M N G N
622 Y M N G N
623 Y M N G N
624 Y M N G N
625 Y M N G N
626 Y M N G N
627 Y M N G N
628 Y M N G N
629 Y M N G N
630 Y M N G N
631 Y M N G N
632 Y M N G N
633 Y M N G N
634 Y M N G N
635 Y M N G N
636 Y M N G N
637 Y L Y G Y
638 Y L Y G Y
639 Y L Y G Y
640 Y L Y G Y
641 Y L Y G Y
642 Y L Y G Y
643 Y L Y G Y
644 Y L Y G Y
645 Y L Y G Y
646 Y L Y G Y
647 Y L Y G Y
648 Y L Y G Y
649 Y L Y G Y
650 Y L Y G Y
651 Y L Y G Y
652 Y L Y G Y
653 Y L Y G Y
654 Y L Y G Y
655 Y L Y G Y
656 Y L Y G Y
657 Y L Y G Y
658 Y L Y G Y
659 Y L Y G Y
660 Y L Y G Y
661 Y L Y G Y
662 Y L Y G Y
663 Y L Y G Y
664 Y L Y G Y
665 Y L Y G Y
666 Y L Y G Y
667 Y L Y G Y
668 Y L Y G Y
669 Y L Y G Y
670 Y L Y G Y
671 Y L Y G Y
672 Y L Y G Y
673 Y L Y G Y
674 Y L Y G Y
675 Y L Y G Y
676 Y L Y G Y
677 Y L Y G Y
678 Y L Y G Y
679 Y L Y G Y
680 Y L Y G Y
681 Y L Y G Y
682 Y L Y G Y
683 Y L Y G Y
684 Y L Y G Y
685 Y L Y G Y
686 Y L Y G Y
687 Y L Y G Y
688 Y L Y G Y
689 Y L Y G Y
690 Y L Y G Y
691 Y L Y G Y
692 Y L Y G Y
693 Y L Y G Y
694 Y L Y G Y
695 Y L Y G Y
696 Y L Y G Y
697 Y L Y G Y
698 Y L Y G Y
699 Y L Y G Y
700 Y L Y G Y
701 L M Y G Y
702 L M Y G Y
703 L M Y G Y
704 L M Y G Y
705 L M Y G Y
706 L M Y G Y
707 L M Y G Y
708 L M Y G Y
709 L M Y G Y
710 L M Y G Y
711 L M Y G Y
712 L M Y G Y
713 L M Y G Y
714 L M Y G Y
715 L M Y G Y
716 L M Y G Y
717 L M Y G Y
718 L M Y G Y
719 L M Y G Y
720 L M Y G Y
721 L M Y G Y
722 L M Y G Y
723 L M Y G Y
724 L M Y G Y
725 L M Y G Y
726 L M Y G Y
727 L M Y G Y
728 L M Y G Y
729 L M Y G Y
730 L M Y G Y
731 L M Y G Y
732 L M Y G Y
733 L M Y G Y
734 L M Y G Y
735 L M Y G Y
736 L M Y G Y
737 L M Y G Y
738 L M Y G Y
739 L M Y G Y
740 L M Y G Y
741 L M Y G Y
742 L M Y G Y
743 L M Y G Y
744 L M Y G Y
745 L M Y G Y
746 L M Y G Y
747 L M Y G Y
748 L M Y G Y
749 L M Y G Y
750 L M Y G Y
751 L M Y G Y
752 L M Y G Y
753 L M Y G Y
754 L M Y G Y
755 L M Y G Y
756 L M Y G Y
757 L M Y G Y
758 L M Y G Y
759 L M Y G Y
760 L M Y G Y
761 L M Y G Y
762 L M Y G Y
763 L M Y G Y
764 L M Y G Y
765 L M Y G Y
766 L M Y G Y
767 L M Y G Y
768 L M Y G Y
769 L M Y G Y
770 L M Y G Y
771 L M Y G Y
772 L M Y G Y
773 L M Y G Y
774 L M Y G Y
775 L M Y G Y
776 L M Y G Y
777 L M Y G Y
778 L M Y G Y
779 L M Y G Y
780 L M Y G Y
781 L M Y G Y
782 L M Y G Y
783 L M Y G Y
784 L M Y G Y
785 L M Y G Y
786 L M Y G Y
787 L M Y G Y
788 L M Y G Y
789 L M Y G Y
790 L M Y G Y
791 L M Y G Y
792 L M Y G Y
793 L M Y G Y
794 L M Y G Y
795 L M Y G Y
796 L M Y G Y
797 L M Y G Y
798 L M Y G Y
799 L M Y G Y
800 L M Y G Y
801 L M Y G Y
802 L M Y G Y
803 L M Y G Y
804 L M Y G Y
805 L M Y G Y
806 L M Y G Y
807 L M Y G Y
808 L M Y G Y
809 L M Y G Y
810 L M Y G Y
811 L M Y G Y
812 L M Y G Y
813 L M Y G Y
814 L M Y G Y
815 L M Y G Y
816 L M Y G Y
817 L M Y G Y
818 L M Y G Y
819 L M Y G Y
820 L M Y G Y
821 L M Y G Y
822 L M Y G Y
823 L M Y G Y
824 L M Y G Y
825 L M Y G Y
826 L M Y G Y
827 L M Y G Y
828 L M Y G Y
829 L M Y G Y
830 L M Y G Y
831 L M Y G Y
832 L M Y G Y
833 Y M Y E Y
834 Y M Y E Y
835 Y M Y E Y
836 Y M Y E Y
837 Y M Y E Y
838 Y M Y E Y
839 Y M Y E Y
840 Y M Y E Y
841 Y M Y E Y
842 Y M Y E Y
843 Y M Y E Y
844 Y M Y E Y
845 Y M Y E Y
846 Y M Y E Y
847 Y M Y E Y
848 Y M Y E Y
849 Y M Y E Y
850 Y M Y E Y
851 Y M Y E Y
852 Y M Y E Y
853 Y M Y E Y
854 Y M Y E Y
855 Y M Y E Y
856 Y M Y E Y
857 Y M Y E Y
858 Y M Y E Y
859 Y M Y E Y
860 Y M Y E Y
861 Y M Y E Y
862 Y M Y E Y
863 Y M Y E Y
864 Y M Y E Y
865 Y M Y E Y
866 Y M Y E Y
867 Y M Y E Y
868 Y M Y E Y
869 Y M Y E Y
870 Y M Y E Y
871 Y M Y E Y
872 Y M Y E Y
873 Y M Y E Y
874 Y M Y E Y
875 Y M Y E Y
876 Y M Y E Y
877 Y M Y E Y
878 Y M Y E Y
879 Y M Y E Y
880 Y M Y E Y
881 Y M Y E Y
882 Y M Y E Y
883 Y M Y E Y
884 Y M Y E Y
885 Y M Y E Y
886 Y M Y E Y
887 Y M Y E Y
888 Y M Y E Y
889 Y M Y E Y
890 Y M Y E Y
891 Y M Y E Y
892 Y M Y E Y
893 Y M Y E Y
894 Y M Y E Y
895 Y M Y E Y
896 Y M Y E Y
897 M M N E Y
898 M M N E Y
899 M M N E Y
900 M M N E Y
901 M M N E Y
902 M M N E Y
903 M M N E Y
904 M M N E Y
905 M M N E Y
906 M M N E Y
907 M M N E Y
908 M M N E Y
909 M M N E Y
910 M M N E Y
911 M M N E Y
912 M M N E Y
913 M M N E Y
914 M M N E Y
915 M M N E Y
916 M M N E Y
917 M M N E Y
918 M M N E Y
919 M M N E Y
920 M M N E Y
921 M M N E Y
922 M M N E Y
923 M M N E Y
924 M M N E Y
925 M M N E Y
926 M M N E Y
927 M M N E Y
928 M M N E Y
929 M H Y G Y
930 M H Y G Y
931 M H Y G Y
932 M H Y G Y
933 M H Y G Y
934 M H Y G Y
935 M H Y G Y
936 M H Y G Y
937 M H Y G Y
938 M H Y G Y
939 M H Y G Y
940 M H Y G Y
941 M H Y G Y
942 M H Y G Y
943 M H Y G Y
944 M H Y G Y
945 M H Y G Y
946 M H Y G Y
947 M H Y G Y
948 M H Y G Y
949 M H Y G Y
950 M H Y G Y
951 M H Y G Y
952 M H Y G Y
953 M H Y G Y
954 M H Y G Y
955 M H Y G Y
956 M H Y G Y
957 M H Y G Y
958 M H Y G Y
959 M H Y G Y
960 M H Y G Y
961 L M N E N
962 L M N E N
963 L M N E N
964 L M N E N
965 L M N E N
966 L M N E N
967 L M N E N
968 L M N E N
969 L M N E N
970 L M N E N
971 L M N E N
972 L M N E N
973 L M N E N
974 L M N E N
975 L M N E N
976 L M N E N
977 L M N E N
978 L M N E N
979 L M N E N
980 L M N E N
981 L M N E N
982 L M N E N
983 L M N E N
984 L M N E N
985 L M N E N
986 L M N E N
987 L M N E N
988 L M N E N
989 L M N E N
990 L M N E N
991 L M N E N
992 L M N E N
993 L M N E N
994 L M N E N
995 L M N E N
996 L M N E N
997 L M N E N
998 L M N E N
999 L M N E N
1000 L M N E N
1001 L M N E N
1002 L M N E N
1003 L M N E N
1004 L M N E N
1005 L M N E N
1006 L M N E N
1007 L M N E N
1008 L M N E N
1009 L M N E N
1010 L M N E N
1011 L M N E N
1012 L M N E N
1013 L M N E N
1014 L M N E N
1015 L M N E N
1016 L M N E N
1017 L M N E N
1018 L M N E N
1019 L M N E N
1020 L M N E N
1021 L M N E N
1022 L M N E N
1023 L M N E N
1024 L M N E Y
## 函数 - C4.5分类决策树算法webTJ.Datamining.setCTree(arrs,srrs);
##参数【arrs,srrs】【训练样本和决策数组,学习样本数组】

代码样例

var oTxt="Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,G,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|Y,H,N,E,N|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|M,H,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,M,N,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,G,Y|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|L,L,Y,E,N|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|M,L,Y,E,Y|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,M,N,G,N|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|Y,L,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|L,M,Y,G,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|Y,M,Y,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,M,N,E,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|M,H,Y,G,Y|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,N|L,M,N,E,Y";
var oArrs=webTJ.getArrs(oTxt,"|",",");
var oSrrs=[['M','H','Y','G','Y'],['L','M','N','E','N'],['M','H','N','G','Y']];
webTJ.Datamining.setCTree(oArrs,oSrrs);

在函数webTJ.Datamining.setC45中,训练样本、决策特征变量样本和学习样本都以数组形式表达,决策特征变量样本为最后一列。如果学习样本只有一组,应按一维数组形式输入,如['M','H','N','G','Y']。

五、案例分析

转载于:https://www.cnblogs.com/cloudtj/p/6874384.html

ID3和C4.5分类决策树算法 - 数据挖掘算法(7)相关推荐

  1. ID3、C4.5、CART树算法简介,这几个算法有什么区别?对于异常值和分类值有什么需要注意的?

    ID3.C4.5.CART树算法简介,这几个算法有什么区别?对于异常值和分类值有什么需要注意的? 目录

  2. matlab id3决策树,matlab实现的ID3分类决策树算法

    <matlab实现的ID3分类决策树算法>由会员分享,可在线阅读,更多相关<matlab实现的ID3分类决策树算法(4页珍藏版)>请在人人文库网上搜索. 1.function ...

  3. 决策树分类算法matlab,matlab实现的C45分类决策树算法

    <matlab实现的C45分类决策树算法>由会员分享,可在线阅读,更多相关<matlab实现的C45分类决策树算法(6页珍藏版)>请在人人文库网上搜索. 1.functionD ...

  4. 【机器学习】这份分类决策树算法介绍请收好!

    摘要: 决策树在机器学习算法中是一个相对简单的算法,如何不能进行适当的剪枝就容易造成模型的过拟合.决策树算法也是当前很多集成学习算法的基础,集成算法的效果往往比单独使用决策树算法效果更好. 关键词: ...

  5. 决策树准确率低原因_机器学习决策树算法--剪枝算法

    一.剪枝算法决策树生成算法递归地产生决策树,直到不能继续下去为止.这样产生的树往往对训练数据的分类很准确,但对未知的测试数据的分类却没有那么准确,即出现过拟合现象.过拟合的原因在于学习时过多地考虑如何 ...

  6. 决策树C4.5算法 c语言实现,数据挖掘十大经典算法(1) C4.5_决策树算法

    数据挖掘十大经典算法(1) C4.5_决策树算法 机器学习中,决策树是一个预测模型:他代表的是对象属性与对象值之间的一种映射关系.树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每 ...

  7. 【数据挖掘】决策树算法简介 ( 决策树模型 | 模型示例 | 决策树算法性能要求 | 递归创建决策树 | 树根属性选择 )

    文章目录 I . 决策树模型 II . 决策树模型 示例 III . 决策树算法列举 IV . 决策树算法 示例 V . 决策树算法性能要求 VI . 决策树模型创建 ( 递归创建决策树 ) VII ...

  8. 机器学习-有监督学习-分类算法:决策树算法【CART树:分类树(基于信息熵;分类依据:信息增益、信息增益率、基尼系数)、回归树(基于均方误差)】【损失函数:叶节点信息熵和】【对特征具有很好的分析能力】

    一.决策树概述 注:生产实践中,不使用决策树,太简单,而是使用决策树的升级版:集成学习算法. 集成学习算法有: Random Forest(随机森林) Extremely Randomized For ...

  9. ID3决策树算法及其Python实现

    目录 一.决策树算法 基础理论 决策树的学习过程 ID3算法 二.实现针对西瓜数据集的ID3算法 实现代码 三.C4.5和CART的算法代码实现 C4.5算法 CART算法 总结 参考文章 一.决策树 ...

最新文章

  1. 5G前夜 运营商如何实现网络创新?
  2. Eclipse UML插件AmaterasUML的配置及使用
  3. 阿里云马劲:保证云产品持续拥有稳定性的实践和思考\n
  4. java父类转换成子类_【转】java 父类与子类的转换
  5. 00-elasticsearch的pom文件
  6. python 线程类 threading.Thread.join() 方法 (自闭,不让别人进来了)
  7. 使用 requests 配置代理服务
  8. 二叉树总结(二)树的遍历
  9. 如何为项目和产品提供资源——优化工作时间、激励团队和预算
  10. linux 双网卡 双交换机,linux双网卡bond及交换机配置
  11. C++中的继承(派生)的一些误区
  12. 阿里云mysql写入性能_如何评价阿里云新一代关系型数据库 PolarDB?
  13. 东芝出售西屋电气在即
  14. android 圆形自定义进度条,自定义Android圆形进度条(附源码)
  15. 【嵌入式】51单片机最小系统以及蜂鸣器驱动电路
  16. 次世代建模是什么?学到什么程度才能接单赚钱
  17. ML-Agents案例之地牢逃脱
  18. jQuery酷炫的文字动画效果代码
  19. 靶机17 GROTESQUE: 3.0.1
  20. 自考学历和成考学历哪个更高一些 有啥区别

热门文章

  1. 一个dsp最小系统至少要有_DSP最小系统电路设计
  2. python计算两个点之间的距离_python实现两个经纬度点之间的距离和方位角的方法...
  3. 计算机网络专科升本科,目前专科升本科有哪几种途径?
  4. 【H.264/AVC视频编解码技术】第四章【SPS序列参数集】
  5. linux rpm mysql mysql_config,Linux CentOS6 mysql rpm安装
  6. python 字符串分割_如何使用python语言split方法对不同字符串分割
  7. C语言 | 语句概述
  8. three.js加载3d模型_基于WebGL的3D技术在网页中的运用 ThingJS 前端开发
  9. mysql降低数据库版本_三步10分钟搞定数据库版本的降迁 (将后台数据库SQL2008R2降为SQ...
  10. mysql移动数据的语句是_mysql基本语句