决策树和随机森林

    • 什么是决策树
    • 决策树组成
    • 节点的确定方法
    • 决策树基本流程
    • 决策树的常用参数
    • 代码实现决策树之分类树
    • 决策树不同max_depth的学习曲线
    • 网格搜索在分类树上的应用
    • 回归树中不同max_depth拟合正弦函数数据
    • 分类树在合成数据的表现
    • 什么是随机森林
    • 随机森林的原理
    • 随机森林常用参数
    • 随机森林应用示例
    • 参数n_estimators对随机森林的影响
    • 决策树和随机森林效果
    • 实例用随机森林对乳腺癌数据的调参
      • n_estimators
      • max_depth
      • gini改为entropy
    • 随机森林填补缺失值
  • 知识点--->查看随机森林每一棵树的深度
  • 随机森林优缺点

什么是决策树

决策树属于经典的十大数据挖掘算法之一,是通过类似于流程图的数形结构,其规则就是iIF…THEN…的思想.,可以用于数值型因变量的预测或离散型因变量的分类,该算法简单直观,通俗易懂,不需要研究者掌握任何领域的知识或者复杂的数学逻辑,而且算法的输出结果具有很强的解释性,通常情况下决策术用作分类器会有很好的预测准确率,目前越来越多的行业,将此算法用于实际问题的解决。

决策树组成


这就是一个典型的决策树,其呈现字顶向下生长的过程,通过树形结构可以将数据中的隐藏的规律,直观的表现出来,图中深色的椭圆表示树的根节点检测的为椭圆表示树的中间节点,方框表示数的叶子节点,对于所有非叶子节点来说都是用于条件判断,叶节点则表示最终储存的分类结果。

  • 根节点:没有进边,有出边。包含最初的,针对特征的提问。
  • 中间节点:既有进边也有出边,进边只有一条,出边可以有很多条。都是针对特征的提问。
  • 叶子节点:有进边,没有出边,每个叶子节点都是一个类别标签。
  • 子节点和父节点:在两个相连的节点中,更接近根节点的是父节点,另一个是子节点。

节点的确定方法

那么对于所有的非叶子节点的字段的选择,可以直接决定我们分类结果的好和坏,那么如何使这些非叶子节点分类使结果更好和效率更高,也就是我们所说的纯净度,对于纯净度的衡量,我们有三个衡量指标信息增益,信息增益率和基尼系数。

  • 对于信息增益来说,就是在我们分类的过程中,会对每一种分类条件的结果都会进行信息增益量的的计算。然后通过信息增益的比较取出最大的信息增益对应的分类条件。也就是说对于信息增益值最大的量就是我们寻找的最佳分类条件。关于信息增益值是怎么计算得出的,这里就不做过多的讲解,因为它需要基于大量的数学计算和概率知识。)输入”entropy“,使用信息熵(Entropy)

  • 在计算信息增益的过程中,可能会受到数据集类别效果不同的值过多,所以会造成信息增益的计算结果将会更大,但是有时候并不能够真正体现我们数据集的分类效果,所以这里引入信息增益率来对于信息增益值进行一定程度的惩罚,简单的理解就是将信息增益值除以信息量。

  • 决策树中的信息增益率和信息增益指标实现根节点和中间节点的选择,只能针对离散型随机变量进行分类,对于连续性的因变量就束手无策,为了能够让决策数预测连续性的因变量,所以就引入了基尼系数指标进行字段选择特征。输入”gini“,使用基尼系数(Gini Impurity)

比起基尼系数,信息熵对不纯度更加敏感,对不纯度的惩罚最强。但是在实际使用中,信息熵和基尼系数的效果基本相同。信息熵的计算比基尼系数缓慢一些,因为基尼系数的计算不涉及对数。另外,因为信息熵对不纯度更加敏感,所以信息熵作为指标时,决策树的生长会更加“精细”,因此对于高维数据或者噪音很多的数据,信息熵很容易过拟合,基尼系数在这种情况下效果往往比较好。

决策树基本流程


他会循环次过程,直到没有更多的特征可用,或整体的不纯度指标已经最优,决策树就会停止生长。但是在建模的过程中可能会由于这种高精度的训练,使得模型在训练基础上有很高的预测精度,但是在测试集上效果并不够理想,为了解决过拟合的问题,通常会对于决策树进行剪枝操作。
对于决策树的剪枝操作有三种:误差降低剪枝法,悲观剪枝法,代价复杂度剪枝法,但是在这里我们只涉及sklearn中,给我们提供的限制决策树生长的参数。

决策树的常用参数

DecisionTreeClassifier(criterion="gini"# criterion用于指定选择节点字段的评价指标。对于分类决策树默认gini,表示采用基尼系数指标进行叶子节点的最佳选择。可有“entropy”,但是容易过拟合,用于拟合不足# 对于回归决策数,默认“mse”,表示均方误差选择节点的最佳分割手段。,random_state=None# 用于指定随机数生成器的种子,默认None表示使用默认的随机数生成器。,splitter="best"# 用于指定节点中的分割点的选择方法,默认best表示从所有的分割点中选出最佳分割点,# 也可以是random,表示随机选择分割点#以下参数均为防止过拟合,max_depth=None# 用于指定决策树的最大深度,默认None,表示树的生长过程中对于深度不做任何限制。,min_samples_leaf=1# 用于指定叶节点的最小样本量默认为1。,min_samples_split=2# 用于指定根节点或中间节点能够继续分割的最小样本量默认为2。,max_features=None# 用于指定决策树包含的最多分隔字段数,默认None表示分割时使用所有的字段。如果为具体的整数,则考虑使用对应的分割手段数,如果为0~1的浮点数,则考虑对于对应百分比的字段个数。,min_impurity_decrease=0# 用于指定节点是否继续分割的最小不纯度值,默认为0,class_weight=None# 用于指定因变量中类别之间的权重。默认None表示每个类别的权重都相同。)

代码实现决策树之分类树

import pandas as pd
from sklearn import tree
from sklearn.model_selection import train_test_split
from sklearn.model_selection import cross_val_score
from sklearn.datasets import load_wine
import graphviz
# 实例化数据集,为字典格式
wine=load_wine()
datatarget=pd.concat([pd.DataFrame(wine.data),pd.DataFrame(wine.target)],axis=1)
# 通过数据集的数据和标签进行训练和测试集的分类。
xtrain,xtest,ytrain,ytest=train_test_split(wine.data # 数据集的数据。,wine.target# 数据集标签。,test_size=0.3#表示训练集为70%测试集为30%。)# 创建一个树的模型。
clf=tree.DecisionTreeClassifier(criterion="gini") # 这里只使用了基尼系数作为参数,其他没有暂时使用
# 将训练集数据放在模型中进行训练,clf就是我们训练好的模型,可以用来进行测试剂的决策。
clf=clf.fit(xtrain,ytrain)# 那么对于我们训练好的模型来说,怎么样才能够说明他是一个比较好的模型,那么我们就要引入模型中的一个函数score进行模型打分
clf.score(xtest,ytest)#测试集打分
# 也可以使用交叉验证的方式,对于数据进行评估更具有稳定性。
cross_val_score(clf # 填入想要打分的模型。,wine.data# 打分的数据集,wine.target# 用于打分的标签。,cv=10# 交叉验证的次数#,scoring="neg_mean_squared_error"#只有在回归中有该参数,表示以负均方误差输出分数).mean()# 将决策树以树的形式展现出来
dot=tree.export_graphviz(clf#,feature_names    #特征名#,class_names  #结果名,filled=True#颜色自动填充,rounded=True)#弧线边界
graph=graphviz.Source(dot)# 模型特征重要性指标
clf.feature_importances_
#[*zip(wine.feature_name,clf.feature_importances_)]特征名和重要性结合#apply返回每个测试样本所在的叶子节点的索引
clf.apply(Xtest)
#predict返回每个测试样本的分类/回归结果
clf.predict(Xtest)

决策树不同max_depth的学习曲线

from sklearn import tree
from sklearn.model_selection import train_test_split
from sklearn.model_selection import cross_val_score
from sklearn.datasets import load_wine
import matplotlib.pyplot as plt、wine=load_wine()
xtrain,xtest,ytrain,ytest=train_test_split(wine.data,wine.target,test_size=0.3)
trainscore=[]
testscore=[]
for i in range(10):clf=tree.DecisionTreeClassifier(criterion="gini",random_state=0,max_depth=i+1,min_samples_split=5,max_features=5).fit(xtrain,ytrain)# 下面这这两句代码本质上结果是一样的。第2种比较稳定,但是费时间once1=clf.score(xtrain,ytrain)once2=cross_val_score(clf,wine.data,wine.target,cv=10).mean()#也可用clf.score(xtest,ytest)trainscore.append(once1)testscore.append(once2)#画图像
plt.plot(range(1,11),trainscore,color="red",label="train")
plt.plot(range(1,11),testscore,color="blue",label="test")
#显示范围
plt.xticks(range(1,11))
plt.legend()
plt.show()

result:

一般情况下,随着max_depth的升高训练集和测试集得分就相对越高,但是由于红酒数据集的数据量比较少,并没有特别明显的体现出来。但是我们依旧可以看出:在最大深度为4的时候到达了测试级的效果巅峰。

网格搜索在分类树上的应用

我们发现对于这个模型的参数比较多,如果我们想要得到一个相对来说分数比较高的效果比较好的模型的话,我们需要对于每一个参数都要进行不断的循环遍历,最后才能够得出最佳答案。但是这对于我们人为的实现来说比较困难,所以我们有了这样一个工具:网格搜索可以自动实现最佳效果的各种参数的确定。(但是比较费时间)

from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_wine
from sklearn.model_selection import GridSearchCV # 网格搜索的导入
wine = load_wine()
xtrain, xtest, ytrain, ytest = train_test_split(wine.data, wine.target, test_size=0.3)
clf = DecisionTreeClassifier(random_state=0)  # 确定random_state,就会在以后多次运行的情况下结果相同# parameters为网格搜索的主要参数,它是以字典的形式存在。键为指定模型的参数名称,值为参数列表
parameters = {"criterion": ["gini", "entropy"], "splitter": ["best", "random"], "max_depth": [*range(1, 10)]# ,"min_samples_leaf":[*range(5,10)]}
# 使用网络搜索便利查询,返回建立好的模型,网格搜索包括交叉验证cv为交叉次数
GS = GridSearchCV(clf, cv=10, param_grid=parameters)
# 进行数据训练
gs = GS.fit(xtrain, ytrain)# best_params_接口可以查看最佳组合
# 最佳组合,(不一定最好,可能有些参数不涉及结果更好)
best_choice = gs.best_params_
print(best_choice)# best_score_接口可以查看最佳组合的得分
best_score = gs.best_score_
print(best_score)

回归树中不同max_depth拟合正弦函数数据

import numpy as np
from sklearn.tree import DecisionTreeRegressor
import matplotlib.pyplot as plt#随机数生成器的实例化
rng = np.random.RandomState(0)
# rng.rand(80, 1)在0到1之间生成80个数,axis=0,纵向排序作为自变量
X = np.sort(5 * rng.rand(80, 1), axis=0)
# 因变量的生成
y = np.sin(X).ravel()
# 添加噪声
y[::5] += 3 * (0.5 - rng.rand(16))#建立不同树模型,回归树除了criterion其余和分类树参数相同
regr_1 = DecisionTreeRegressor(max_depth=2)
regr_2 = DecisionTreeRegressor(max_depth=5)
# 训练数据
regr_1.fit(X, y)
regr_2.fit(X, y)# 生成测试数据
X_test = np.arange(0.0, 5.0, 0.01)[:, np.newaxis]
# 预测X_test数据在不同数上的表现
y_1 = regr_1.predict(X_test)
y_2 = regr_2.predict(X_test)#画图
plt.figure()
plt.scatter(X, y, s=20, edgecolor="black",c="red", label="data")
plt.plot(X_test, y_1, color="blue",label="max_depth=2", linewidth=2)
plt.plot(X_test, y_2, color="green", label="max_depth=5", linewidth=2)
plt.xlabel("data")
plt.ylabel("target")
plt.title("Decision Tree Regression")
plt.legend()
plt.show()

结果:

从图像可以看出对于不同深度的节点来说,有优点和缺点。对于max_depth=5的时候,一般情况下很贴近原数据结果,但是对于一些特殊的噪声来说,也会非常贴近噪声,所以在个别的点的地方会和真实数据相差比较大,也就是过拟合现象(对于训练数据集能够很好地判断出出,但是对于测试数据集来说结果并不理想)。对于max_depth=2的时候,虽然不能够特别贴近大量的数据集,但是在处理一些噪声的时候,往往能够很好的避免。

分类树在合成数据的表现

import numpy as np
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import make_moons, make_circles, make_classification
from sklearn.tree import DecisionTreeClassifier######生成三种数据集######
# 二分类数据集
X, y = make_classification(n_samples=100, #生成100个样本n_features=2,#有两个特征n_redundant=0, #添加冗余特征0个n_informative=2, #包含信息的特征是2个random_state=1,#随机模式1
n_clusters_per_class=1 #每个簇内包含的标签类别有1个)
rng = np.random.RandomState(2) #生成一种随机模式
X += 2 * rng.uniform(size=X.shape) #加减0~1之间的随机数
linearly_separable = (X, y) #生成了新的X,依然可以画散点图来观察一下特征的分布
#plt.scatter(X[:,0],X[:,1])#用make_moons创建月亮型数据,make_circles创建环形数据,并将三组数据打包起来放在列表datasets中
moons=make_moons(noise=0.3, random_state=0)
circles=make_circles(noise=0.2, factor=0.5, random_state=1)
datasets = [moons,circles,linearly_separable]figure = plt.figure(figsize=(6, 9))
i=1
#设置用来安排图像显示位置的全局变量i i = 1
#开始迭代数据,对datasets中的数据进行for循环
for ds_index, ds in enumerate(datasets):X, y = ds# 对数据进行标准化处理X = StandardScaler().fit_transform(X)#划分数据集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4,
random_state=42)#定数据范围,以便后续进行画图背景的确定#注意X[:,0]指横坐标,X[:,1]指纵坐标x1_min, x1_max = X[:, 0].min() - .5, X[:, 0].max() + .5x2_min, x2_max = X[:, 1].min() - .5, X[:, 1].max() + .5#使画板上每个点组成坐标的形式(没间隔0.2取一个),array1表示横坐标,array2表示纵坐标array1,array2 = np.meshgrid(np.arange(x1_min, x1_max, 0.2), np.arange(x2_min, x2_max, 0.2))# 颜色列表cm_bright = ListedColormap(['#FF0000', '#0000FF'])########## 原始数据的现实  ########## 用画板上六个图片位置(3,2)的第i个ax = plt.subplot(len(datasets), 2, i)# 便签添加if ds_index == 0:ax.set_title("Input data")#画出训练数据集散点图ax.scatter(X_train[:, 0],#横坐标X_train[:, 1],#纵坐标c=y_train,#意思是根据y_train标签从cm_bright颜色列表中取出对应的颜色,也就是说相同的标签有相同的颜色。cmap = cm_bright, #颜色列表edgecolors = 'k'#生成散点图,每一个点边缘的颜色)#画出测试数据集的散点图,其中比训练集多出alpha = 0.4参数,以分辨训练测试集ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test,cmap = cm_bright, alpha = 0.4, edgecolors = 'k')#显示的坐标范围ax.set_xlim(array1.min(), array1.max())ax.set_ylim(array2.min(), array2.max())#不显示坐标值ax.set_xticks(())ax.set_yticks(())#i+1显示在下一个子图版上画图i += 1####### 经过决策的数据显示 #######ax = plt.subplot(len(datasets), 2, i)#实例化训练模型clf = DecisionTreeClassifier(max_depth=5).fit(X_train, y_train)score = clf.score(X_test, y_test)# np.c_是能够将两个数组组合起来的函数# ravel()能够将一个多维数组转换成一维数组#通过对画板上每一个点的预测值确定分类结果范围,并以此为依据通,通过不同的颜色展现出来范围Z = clf.predict_proba(np.c_[array1.ravel(), array2.ravel()])Z = Z[:,0].reshape(array1.shape)cm = plt.cm.RdBu # 自动选取颜色的实例化模型。ax.contourf(array1#画板横坐标。, array2#画板纵坐标, Z# 画板每个点对应的预测值m,并据此来确定底底板的颜色。, cmap=cm#颜颜色选取的模型,由于Z的值只有两个,也可以写出一个颜色列表,指定相应颜色,不让其自动生成, alpha=0.8)#和原始数据集一样,画出每个训练集和测试集的散点图ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright, edgecolors = 'k')ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright, edgecolors = 'k', alpha = 0.4)ax.set_xlim(array1.min(), array1.max())ax.set_ylim(array2.min(), array2.max())ax.set_xticks(())ax.set_yticks(())if ds_index == 0:ax.set_title("Decision Tree")#在右下角添加模型的分数ax.text(array1.max() - .3, array2.min() + .3, ('{:.1f}%'.format(score * 100)),size = 15, horizontalalignment = 'right')i += 1#自动调整子画板与子画板之间的的距离
plt.tight_layout()
plt.show()

从这里可以看出决策树,对于月亮型数据和二分类数据有比较好的分类效果,但是对于环形的数据的分类效果就不是那么理想。

什么是随机森林

随机森林属于集成算法,森林从字面理解就是由多颗决策树构成的集合,而且这些子树都是经过充分生长的CART树,随机则表示构成多颗随机树是随机生成的,生成过程采用的是bossstrap抽样法,该算法有两大优点,一是运行速度快,二是预测准确率高,被称为最好用的算法之一。

随机森林的原理

该算法的核心思想就是采用多棵决策树的投票机制,完成分类或预测问题的解决。对于分类的问题,将多个数的判断结果用做投票,根据根据少数服从多数的原则,最终确定样本所属的类型,对于预测性的问题,将多棵树的回归结果进行平均,最终确定样本的预测。

将随机森林的建模过程,形象地描绘出来就是这样:
流程:

  1. 利用booststrap抽样法,从原始数据集中生成K个数据集,并且每一个数据集都含有N个观测和P个自变量。
  2. 针对每一个数据集构造一个CART决策树,在构造数的过程中,并没有将所有自变量用作节点字段的选择而是随机选择P个字段(特征)
  3. 让每一颗决策树尽可能的充分生长,使得树中的每一个节点,尽可能的纯净,即随机森林中的每一颗子树都不需要剪枝。
  4. 针对K个CART树的随机森林,对于分类问题利用投票法将最高的的票的类别用于最后判断结果,对于回归问题利用均值法,将其作为预测样本的最终结果。

随机森林常用参数

用分类的随机森林举例

RandomForestClassifier(n_estimators=10 # 用于对于指定随机森林所包含的决策树个数,criterion="gini" # 用于每棵树分类节点的分割字段的度量指标。和决策树含义相同。,max_depth=None # 用于每颗决策树的最大深度,默认不限制其生长深度。,min_samples_split=2 # 用于指定每颗决策数根节点或者中间节点能够继续分割的最小样本量,默认2。,min_samples_leaf=1 # 用于指定每个决策树叶子节点的最小样本量,默认为1,max_features="auto" # 用于指定每个决策树包含的最多分割字段数(特征数)默认None。表示分割时涉及使用所有特征,bootstrap=True # #是否开启带外模式(有放回取值,生成带外数据)若不开启,需要自己划分train和test数据集,默认True,oob_score=False # #是否用带外数据检测 即是是否使用带外样本计算泛化,误差默认为false,袋外样本是指每一个bootstrap抽样时没有被抽中的样本,random_state=None # 用于指定随机数生成器的种子,默认None,表示默认随机生成器,calss_weight # 用于因变量中类别的权重,默认每个类别权重相同)
注:一般n_estimators越大,模型的效果往往越好。但是相应的,任何模型都有决策边界
n_estimators达到一定的程度之后,随机森林的精确性往往不在上升或开始波动
并且n_estimators越大,需要的计算量和内存也越大,训练的时间也会越来越长

随机森林应用示例

from sklearn.datasets import load_wine
from sklearn.ensemble import RandomForestClassifier
wine=load_wine()
xtrain,xtest,ytrain,ytest=train_test_split(wine.data ,wine.target,test_size=0.3)
rfc=RandomForestClassifier(random_state=0,n_estimators=10#生成树的数量,bootstrap=True,oob_score=True#开启袋外数据检测).fit(xtrain,ytrain)
rfc.score(xtest,ytest)
rfc.oob_score_#带外数据作为检测数据集
rfc.predict_proba(wine.data)#输出所有数据在target上的概率
rfc.estimators_#所有树情况
rfc.estimators_[1].random_state#某个树random——state值

参数n_estimators对随机森林的影响

from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
from sklearn.datasets import load_wine
from sklearn.ensemble import RandomForestClassifier
wine=load_wine()
score=[]
for i in range(100):rfc=RandomForestClassifier(random_state=0,n_estimators=i+1,bootstrap=True,oob_score=False)once=cross_val_score(rfc,wine.data,wine.target,cv=10).mean()score.append(once)plt.plot(range(1,101),score)
plt.xlabel("n_estimators")
plt.show()
print("best srore = ",max(score),"\nbest n_estimators = ",score.index(max(score))+1)
输出:
best srore =  0.9833333333333334
best n_estimators =  12

决策树和随机森林效果

from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
from sklearn.datasets import load_wine
from sklearn.ensemble import RandomForestClassifier
wine=load_wine()
score1=[]
score2=[]
for i in range(10):rfc=RandomForestClassifier(n_estimators=12)once1=cross_val_score(rfc,wine.data,wine.target,cv=10).mean()score1.append(once1)clf=DecisionTreeClassifier()once2=cross_val_score(clf,wine.data,wine.target,cv=10).mean()score2.append(once2)
plt.plot(range(1,11),score1,label="Forest")
plt.plot(range(1,11),score2,label="singe tree")
plt.legend()
plt.show()


从图像中可以直观的看出:多个决策树组成的随机森林集成算法的模型效果要明显优于单个决策树的效果。

实例用随机森林对乳腺癌数据的调参

n_estimators

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
cancer = load_breast_cancer()
scores=[]
for i in range(1,201,10):rfc = RandomForestClassifier(n_estimators=i, random_state=0).fit(cancer.data,cancer.target)score = cross_val_score(rfc,cancer.data,cancer.target,cv=10).mean()scores.append(score)
print(max(scores),(scores.index(max(scores))*10)+1)
plt.figure(figsize=[20,5])
plt.plot(range(1,201,10),scores)
plt.show()

0.9649122807017545 111

max_depth

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
cancer = load_breast_cancer()
scores=[]
for i in range(1,20,2):rfc = RandomForestClassifier(n_estimators=111,max_depth=i, random_state=0)score = cross_val_score(rfc,cancer.data,cancer.target,cv=10).mean()scores.append(score)
print(max(scores),(scores.index(max(scores))*2)+1)
plt.figure(figsize=[20,5])
plt.plot(range(1,20,2),scores)
plt.show()

0.9649122807017545 11

gini改为entropy

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
cancer = load_breast_cancer()
scores=[]
for i in range(1,20,2):rfc = RandomForestClassifier(n_estimators=111,criterion="entropy",max_depth=i, random_state=0)score = cross_val_score(rfc,cancer.data,cancer.target,cv=10).mean()scores.append(score)
print(max(scores),(scores.index(max(scores))*2)+1)
plt.figure(figsize=[20,5])
plt.plot(range(1,20,2),scores)
plt.show()

0.9666666666666666 7

gini和entropy结果图片:

随机森林填补缺失值

from sklearn.model_selection import train_test_split
from sklearn.impute import  SimpleImputer
from sklearn.ensemble import RandomForestRegressor
from sklearn.datasets import load_boston
import pandas as pd
import numpy as np
boston=load_boston()
#原数据测试:
xtrain,xtest,ytrain,ytest=train_test_split(boston.data,boston.target,test_size=0.3)#对原数据效果测试
rfc=RandomForestRegressor(n_estimators=30).fit(xtrain,ytrain)
print(rfc.score(xtest,ytest))原数据得分
#设置缺失值:
rng=np.random.RandomState(1)
boston.data[rng.randint(0,boston.data.shape[0],500),rng.randint(0,boston.data.shape[1],500)]=np.nan
miss_data=pd.DataFrame(boston.data)
sort_miss_index=np.argsort(miss_data.isnull().sum(0)).values
#对缺失值数量排序for i in sort_miss_index:copy_miss_data=miss_data.copy()fill=copy_miss_data.iloc[:,i]new_data=pd.concat([copy_miss_data.iloc[:,copy_miss_data.columns!=i],pd.DataFrame(boston.target)],axis=1)df_0=SimpleImputer(missing_values=np.nan,strategy="constant",fill_value=0).fit_transform(new_data)ytrain=fill[fill.notnull()]#填补0后在fill完整数据作为trainytest=fill[fill.isnull()]#需要填充的作为testxtrain=df_0[ytrain.index,:]xtest=df_0[ytest.index,:]
#生成填充rfc=RandomForestRegressor(n_estimators=30).fit(xtrain,ytrain)Ypredict=rfc.predict(xtest)miss_data.loc[miss_data.iloc[:,i].isnull(),i]=Ypredict#新数据评估
xtrain,xtest,ytrain,ytest=train_test_split(miss_data,boston.target,test_size=0.3)
rfc=RandomForestRegressor(n_estimators=30).fit(xtrain,ytrain)
print(rfc.score(xtest,ytest))

知识点—>查看随机森林每一棵树的深度

from sklearn.ensemble import RandomForestClassifier as RFC
from sklearn.datasets import load_digitsdigit = load_digits()
X = digit.data
Y = digit.target
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.3, random_state=100)
clf2 = RFC(n_estimators= 100,max_depth=12,random_state=10,n_jobs=-1)
clf2.fit(X_train,Y_train)# 数据和之前
# clf2.estimators_就是树模型的集合就是单个决策树DecisionTreeClassifier
# tree_就是参数集合.max_depth就是最大深度
for i in clf2.estimators_[:]:print(i.tree_.max_depth)

随机森林优缺点

机器学习 之 决策树和随机森林相关推荐

  1. 机器学习中决策树的随机森林_决策树和随机森林在机器学习中的使用

    机器学习中决策树的随机森林 机器学习 (Machine Learning) Machine learning is an application of artificial intelligence ...

  2. 机器学习利器——决策树和随机森林

    更多深度文章,请关注:https://yq.aliyun.com/cloud 决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率, ...

  3. 机器学习之决策树与随机森林

    目录 1.了解熵.条件熵.互信息的概念及公式 1.1.熵 1.2.条件熵 1.3.信息增益/互信息 2.了解决策树 2.1.了解决策树的概念和特点以及和熵的关系 2.2.了解树生成的过程 2.3.了解 ...

  4. Spark 机器学习 —— 从决策树到随机森林

    构造训练数据 import org.apache.spark.mllib.linalg.Vectors import org.apache.spark.mllib.regression.Labeled ...

  5. 机器学习:决策树与随机森林

    决策树与随机森林 决策树 基本原理 优缺点 优点 缺点 使用决策树对鸢尾花分类 随机森林 基本原理 优缺点 优点 缺点 葡萄酒数据集的随机森林分类 决策树 基本原理 决策树算法是一种基于实例的算法,常 ...

  6. 机器学习(9)--决策树和随机森林

    一.决策树 认识:决策树思想的来源非常朴素,程序设计中的条件分支结构就是if-then结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法 举例说明: 案例一: 案例二: 如何去划分是否能得到 ...

  7. 【机器学习】决策树与随机森林模型

    决策树: 决策树:是一种树形结构,其中每个内部节点(圆形表示特征)表示一个属性上的判断,每个分支(箭头)代表一个判断结果的输出,最后每个叶节点(正方形表示分类的结果)代表一种分类情况,本质是一颗由多个 ...

  8. ML之回归预测:利用十类机器学习算法(线性回归、kNN、SVM、决策树、随机森林、极端随机树、SGD、提升树、LightGBM、XGBoost)对波士顿数据集回归预测(模型评估、推理并导到csv)

    ML之回归预测:利用十类机器学习算法(线性回归.kNN.SVM.决策树.随机森林.极端随机树.SGD.提升树.LightGBM.XGBoost)对波士顿数据集[13+1,506]回归预测(模型评估.推 ...

  9. 【机器学习基础】(五):通俗易懂决策树与随机森林及代码实践

    与SVM一样,决策树是通用的机器学习算法.随机森林,顾名思义,将决策树分类器集成到一起就形成了更强大的机器学习算法.它们都是很基础但很强大的机器学习工具,虽然我们现在有更先进的算法工具来训练模型,但决 ...

最新文章

  1. jenkins 修改工作目录
  2. ThinkPHP的易忽视点小结
  3. SAP BCP 超时机制的实现
  4. 工作35:理解自定义组件
  5. 联想拯救者y7000加内存条_短测联想拯救者Y7000,到底值不值得买?
  6. C语言转义字符的使用
  7. 1 CO配置-企业结构-定义-创建经营组织(Operating Concern)
  8. STM32工作笔记0091---ADC模数转换实验-M3
  9. 关于郑州大学校园网锐捷客户端禁止热点分享,禁止多网卡的解决办法
  10. Java并发编程实践
  11. Ubuntu操作系统
  12. 基于开源的BPM流程引擎VS天翎自研BPM流程引擎
  13. 圆圆曲(清.吴伟业)
  14. PHP开发微信提现到银行卡
  15. Novell推出可替代微软的桌面应用软件包(转)
  16. 2022年国家高新技术企业申报秘笈来了
  17. CRM客户关系管理:赢得和留住客户的指南
  18. 分布式mysql proxy 360_mysql-proxy之奇虎360 Atlas 安装实现mysql读写分离
  19. 2021 typescript史上最强学习入门文章(4w字)
  20. 构造一个简单的操作系统内核,详解进程切换细节

热门文章

  1. 随笔——自己制作python编译器——pip.exe的复制修改
  2. 修笔记本电脑(飞行堡垒)
  3. ffmpeg 采集摄像头yuv数据
  4. linux图片添加滤镜,分享|在 Ubuntu 中给你的照片加上 Instagram 风格的滤镜程序
  5. memcpy函数详解 看这一篇就够了-C语言(函数讲解、 使用用法举例、作用)
  6. 规划一份7天昆明旅游攻略
  7. smooth step
  8. HCNA小型企业网络配置
  9. 【Matlab优化知识点合集】新手入门第十二天
  10. 猫大叫,两只老鼠开始逃跑,主人醒来,宝宝也醒来了并且哭了起来.