集成学习和随机森林方法


介绍

本次实验介绍了集成学习的概念及主要方法,包括 Bootstraping、Bagging、随机森林,随后计算随机森林中各个特征的重要性,找出对模型贡献较大的特征。

知识点

  • 集成
  • Bootstraping
  • Bagging
  • 随机森林
  • 特征重要性

集成

之前的几个实验中,介绍了不同的分类算法,以及验证、评估模型的技术。现在,假设已经为某一特定问题选中了最佳的模型,想进一步提升其准确率,就需要应用一些更高级的机器学习技术:集成(Ensemble)。集成是使用一系列学习器进行学习,并使用某种规则把各个学习结果进行整合从而获得比单个学习器更好的学习效果的一种机器学习方法。在集成中,最终的整体输出比任何单个部分的表现更重要。

某种意义上,孔多塞陪审团定理形象的描述了上面提到的集成概念。该定理的内容为:如果评审团的每个成员做出独立判断,并且每个陪审员做出正确决策的概率高于 0.5,那么整个评审团做出正确的总体决策的概率随着陪审员数量的增加而增加,并趋向于一。另一方面,如果每个陪审员判断正确的概率小于 0.5,那么整个陪审团做出正确的总体决策的概率随着陪审员数量的增加而减少,并趋向于零。

该定理的公式为:

μ=∑i=mN(Ni)pi(1−p)N−i \mu = \sum_{i=m}^{N}{N\choose i}p^i(1-p)^{N-i} μ=i=mN(iN)pi(1p)Ni

其中,

  • NNN 为陪审员总数。
  • mmm 是构成多数的最小值,即 m=floor⁡(N/2)+1m=\operatorname{floor}(N / 2)+1m=floor(N/2)+1
  • (Ni) {N \choose i}(iN) 是组合数。
  • p pp 为评审员做出正确决策的概率。
  • μ \muμ 是整个评审团做出正确决策的概率。

由上式可知,若 p>0.5 p > 0.5p>0.5,则 μ>p \mu > pμ>p。此外,若 N→∞ N \rightarrow \infty N,则 μ→1 \mu \rightarrow 1μ1

让我们看看另一个集成的例子:群体的智慧。1906 年,Francis Galton 访问了普利茅斯的一个农村集市,在那里他看到一个比赛。800 个参与者尝试估计一头屠宰的牛的重量。所有参与者的预测的平均值为 1197 磅,与牛的真实重量 1198 磅十分接近。

机器学习领域采用类似的思路以降低误差。

Bootstrapping

Leo Breiman 于 1994 年提出的 Bagging(又称 Bootstrap Aggregation,引导聚集)是最基本的集成技术之一。Bagging 基于统计学中的 Bootstraping(自助法),该方法令复杂模型的统计评估变得更加可行。

Bootstrap 方法的流程如下:假设有尺寸为 N 的样本 X,从该样本中有放回地随机抽取 N 个样本,以创建一个新样本。换句话说,从尺寸为 N 的原样本中随机选择一个元素,并重复此过程 N 次。选中所有元素的可能性是一样的,因此每个元素被抽中的概率均为 1N \frac{1}{N}N1

假设用 Bootstrap 方法从一个袋子中抽球,每次抽一个。在每一步中,将选中的球放回袋子,这样下一次抽取是等概率的,即,从同样数量的 N 个球中抽取。注意,因为我们把球放回了,新样本中可能有重复的球。把这个新样本称为 X1 X_1X1。重复这一过程 M 次,创建 M 个 Bootstrap 样本 X1,…,XM X_1, \dots, X_MX1,,XM。最后,我们的样本数量就从原先的 1 个扩充到了 M 个,就有充足的样本来计算原始分布的多种统计数据。

看一个例子,这个例子使用之前的 telecom_churn 数据集。我们曾讨论过这一数据集的特征重要性,其中最重要的特征之一是呼叫客服次数(Customer service calls)。可视化「呼叫客服次数」这一特征,看看其分布。

import warnings
import seaborn as sns
import pandas as pd
import numpy as np
from matplotlib import pyplot as plt
plt.style.use('ggplot')
plt.rcParams['figure.figsize'] = 10, 6
%matplotlib inline
warnings.filterwarnings('ignore')

telecom_data = pd.read_csv('https://labfile.oss.aliyuncs.com/courses/1283/telecom_churn.csv')

fig = sns.kdeplot(telecom_data[telecom_data[‘Churn’]
== False][‘Customer service calls’], label=‘Loyal’)
fig = sns.kdeplot(telecom_data[telecom_data[‘Churn’]
== True][‘Customer service calls’], label=‘Churn’)
fig.set(xlabel=‘Number of calls’, ylabel=‘Density’)
plt.show()


上图表明,相比那些逐渐离网的客户,忠实客户呼叫客服的次数更少。估计每组客户的平均呼叫客服数可能很有用,但由于该数据集很小,如果直接计算原样本的均值,得到的估计可能较差。因此可以应用 Bootstrap 方法,基于原样本生成 1000 个新 Bootstrap 样本,然后计算均值的区间估计。

定义 get_bootstrap_samples() 函数产生 Bootstrap 样本,定义 stat_intervals() 函数产生一个区间估计。

def get_bootstrap_samples(data, n_samples):indices = np.random.randint(0, len(data), (n_samples, len(data)))samples = data[indices]return samples

def stat_intervals(stat, alpha):
boundaries = np.percentile(
stat, [100 * alpha / 2., 100 * (1 - alpha / 2.)])
return boundaries


分割数据集,分组为忠实客户和离网客户。

loyal_calls = telecom_data.loc[telecom_data['Churn'] == False,'Customer service calls'].values
churn_calls = telecom_data.loc[telecom_data['Churn'] == True,'Customer service calls'].values

固定随机数种子,以得到可重现的结果。

np.random.seed(0)

使用 Bootstrap 生成样本,计算各自的均值。

loyal_mean_scores = [np.mean(sample)for sample in get_bootstrap_samples(loyal_calls, 1000)]
churn_mean_scores = [np.mean(sample)for sample in get_bootstrap_samples(churn_calls, 1000)]

打印区间估计值,使用 stat_intervals() 函数将区间定义为 95%。

print("Service calls from loyal: mean interval",stat_intervals(loyal_mean_scores, 0.05))
print("Service calls from churn: mean interval",stat_intervals(churn_mean_scores, 0.05))

上述结果表明,有 95% 的概率,忠实客户平均呼叫客服的次数在 1.4 到 1.49 之间,而离网客户平均呼叫客服的次数在 2.06 到 2.40 之间。另外,可以注意到忠实客户的区间更窄,这是合理的,因为相比多次呼叫客服的离网客户,忠实客户呼叫客服的次数更少(0、1、2 次)。

Bagging

理解了 Bootstrap 概念之后,接下来介绍 Bagging。

假设我们有一个训练集 X。我们使用 Bootstrap 生成样本 X1,…,XM X_1, \dots, X_MX1,,XM。现在,我们在每个 Bootstrap 样本上分别训练分类器 ai(x) a_i(x)ai(x),最终的分类器将对所有这些单独的分类器的输出取均值。在分类情形下,这种技术即投票(voting):

a(x)=1M∑i=1Mai(x). a(x) = \frac{1}{M}\sum_{i = 1}^M a_i(x).a(x)=M1i=1Mai(x).

下图形象化解释了上面的公式:

在回归问题中,通过对回归结果取均值,Bagging 将均方误差降至 1M\frac{1}{M}M1(M 为回归器数量)。

回顾一下上一课的内容,模型的预测误差由三部分构成:

Bias(f^)2+Var(f^)+σ2 \mathrm{Bias}\left(\hat{f}\right)^2 + \mathrm{Var}\left(\hat{f}\right) + \sigma^2Bias(f^)2+Var(f^)+σ2

Bagging 通过在不同数据集上训练模型的方式来降低分类器的方差。换句话说,Bagging 可以预防过拟合。由于来自不同训练数据集上的模型各不相同,它们的误差在投票过程中会相互抵消,所以 Bagging 是有效的。此外,某些 Bootstrap 训练样本很可能会忽略异常值。

让我们看下 Bagging 的实际效果,并与决策树比较下,如下图所示:

决策树的误差:

0.0255(Err)=0.0003(Bias2)+0.0152(Var)+0.0098(σ2)0.0255 (\mathrm{Err}) = 0.0003 (\mathrm{Bias}^2) + 0.0152 (\mathrm{Var}) + 0.0098 (\sigma^2) 0.0255(Err)=0.0003(Bias2)+0.0152(Var)+0.0098(σ2)

Bagging 的误差:

0.0196,(Err)=0.0004,(Bias2)+0.0092,(Var)+0.0098,(σ2) 0.0196 , (\mathrm{Err}) = 0.0004 , (\mathrm{Bias}^2) + 0.0092 , (\mathrm{Var}) + 0.0098 , (\sigma^2) 0.0196,(Err)=0.0004,(Bias2)+0.0092,(Var)+0.0098,(σ2)

从上图可以看到,相比决策树,Bagging 误差中的方差值显著降低了。

上图的例子不太可能在实际工作中出现,因为它做了一个强假定:单独误差是不相关的。对现实世界的应用而言,这个强假定太过乐观。当这个假定不成立时,误差的下降就不会那么显著。在后续实验中,我们将讨论一些更复杂的集成方法,能够对现实世界的问题做出更精确的预测。

袋外误差(OOB Error)

随机森林不需要使用交叉验证或留置样本,因为它内置了误差估计。随机森林中的决策树基于原始数据集中不同的 Bootstrap 样本构建。对第 K 棵树而言,其特定 Bootstrap 样本大约留置了 37% 的输入。

这很容易证明。设数据集中有 ℓ \ell 个样本。在每一步,每个数据点最终出现在有放回的 Bootstrap 样本中的概率均为 1ℓ\frac{1}{\ell}1。Bootstrap 样本最终不包含特定数据集元素的概率(即,该元素在 ℓ\ell 次抽取中都没抽中)等于 (1−1ℓ)ℓ (1 - \frac{1}{\ell})^\ell(11)。当 ℓ→+∞ \ell \rightarrow +\infty+ 时,这一概率等于 1e \frac{1}{e}e1。因此,选中某一特定样本的概率 ≈1−1e≈63 \approx 1 - \frac{1}{e} \approx 63%1e163

下图可视化袋外误差(Out-of-Bag Error,OOBE)估计是如何工作的:

示意图上方为原始数据集。将其分为训练集(左图)和测试集(右图)。在测试集上,绘制一副网格,完美地实现了分类。现在,我们应用同一副网格到测试集上,以估计分类的正确率。右图可见,分类器在 4 个未曾在训练集中出现的数据点上给出了错误的答案。而测试集中共有 15 个数据点,这 15 个数据点未在训练集中出现。因此,该分类器的准确率为 1115∗100 \frac{11}{15}*100% = 73.33%1511100

总结一下,每个基础算法在约 63% 的原始样本上训练。该算法可以在剩下的约 37% 的样本上验证。袋外估计仅仅是基础算法在 37% 样本上的平均估计。

随机森林

在 Bagging 中,主要使用的基础分类器为决策树,因为决策树相当复杂,并能在任何样本上达到零分类误差。随机子空间方法可以降低树的相关性,从而避免过拟合。基于 Bagging,基础算法会在不同的原始特征集的随机子集上训练。

以下算法使用随机子空间方法构建集成模型:

  • 设样本数等于 n,特征维度数等于 d。
  • 选择模型的数目 M。
  • 对于每个模型 m,选择特征数 dm<d。所有模型使用相同的 dm 值。
  • 对每个模型 m,通过在整个 d 特征集合上随机选择 dm 个特征创建一个训练集。
  • 训练每个模型。
  • 通过组合 M 个模型的结果,将生成的整体模型应用于新数据中,应用时可以基于多数投票算法(majority voting)或后验概率聚合(aggregation of the posterior probabilities)。

随机森林的算法

构建 N 棵树的随机森林算法如下:

  • 对每个 k=1,…,N k = 1, \dots, Nk=1,,N,生成 Bootstrap 样本 Xk X_kXk
  • 在样本 Xk X_kXk 上创建一棵决策树 bk b_kbk
    • 根据给定的标准选择最佳的特征维度。根据该特征分割样本以创建树的新层。重复这一流程,直到样本用尽。
    • 创建树,直到任何叶节点包含的实例不超过 nmin n_\text{min}nmin 个,或者达到特定深度。
    • 每次分割,首先从 ddd 个原始特征中随机选择 mmm 个特征,接着只在该子集上搜索最佳分割。

最终分类器定义为:

a(x)=1N∑k=1Nbk(x) a(x) = \frac{1}{N}\sum_{k = 1}^N b_k(x)a(x)=N1k=1Nbk(x)

分类问题使用多数投票算法,回归问题使用均值。在分类问题中,建议设定 m=d m = \sqrt{d}m=d

,取 nmin=1 n_\text{min} = 1nmin=1。回归问题中,一般取 m=d3 m = \frac{d}{3}m=3dnmin=5 n_\text{min} = 5nmin=5

可以将随机森林看成 Bagging 决策树的一个改动版本,因为随机森林在每个 Bagging 决策树的分割处选择了一个随机特征子空间。

随机森林与 Bagging 和决策树的比较

导入所需包,配置环境:

from __future__ import division, print_function
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_circles
from sklearn.tree import DecisionTreeRegressor, DecisionTreeClassifier
from sklearn.ensemble import BaggingClassifier, BaggingRegressor
from sklearn.ensemble import RandomForestRegressor, RandomForestClassifier
import seaborn as sns
from matplotlib import pyplot as plt

Disable warnings in Anaconda

import warnings
import numpy as np
warnings.filterwarnings(‘ignore’)

%matplotlib inline
plt.style.use(‘ggplot’)
plt.rcParams[‘figure.figsize’] = 10, 6

n_train = 150
n_test = 1000
noise = 0.1


生成数据。

def f(x):x = x.ravel()return np.exp(-x ** 2) + 1.5 * np.exp(-(x - 2) ** 2)def generate(n_samples, noise):X = np.random.rand(n_samples) * 10 - 5X = np.sort(X).ravel()y = np.exp(-X ** 2) + 1.5 * np.exp(-(X - 2) ** 2)\+ np.random.normal(0.0, noise, n_samples)X = X.reshape((n_samples, 1))return X, yX_train, y_train = generate(n_samples=n_train, noise=noise)
X_test, y_test = generate(n_samples=n_test, noise=noise)

使用单棵决策树回归。

dtree = DecisionTreeRegressor().fit(X_train, y_train)
d_predict = dtree.predict(X_test)plt.figure(figsize=(10, 6))
plt.plot(X_test, f(X_test), "b")
plt.scatter(X_train, y_train, c="b", s=20)
plt.plot(X_test, d_predict, "g", lw=2)
plt.xlim([-5, 5])
plt.title("Decision tree, MSE = %.2f"% np.sum((y_test - d_predict) ** 2))

使用 Bagging 决策树回归。

bdt= BaggingRegressor(DecisionTreeRegressor()).fit(X_train,y_train)
bdt_predict= bdt.predict(X_test)
plt.figure(figsize=(10, 6))
plt.plot(X_test, f(X_test), "b")
plt.scatter(X_train,y_train, c="b", s=20)
plt.plot(X_test, bdt_predict,"y", lw=2)plt.xlim([-5, 5])
plt.title("Bagging for decision trees, MSE = %.2f" %np.sum((y_test - bdt_predict)** 2))

使用随机森林。

rf = RandomForestRegressor(n_estimators=10).fit(X_train, y_train)
rf_predict = rf.predict(X_test)plt.figure(figsize=(10, 6))
plt.plot(X_test, f(X_test), "b")
plt.scatter(X_train, y_train, c="b", s=20)
plt.plot(X_test, rf_predict, "r", lw=2)
plt.xlim([-5, 5])
plt.title("Random forest, MSE = %.2f" % np.sum((y_test - rf_predict) ** 2))

从上面 3 张图像和 MSE 值可以看到,10 树随机森林比单棵决策树和 10 树 Bagging 的表现要好,当然随机森林在这个例子上不稳定,多次运行结果表明随机森林和 Bagging 决策树互有胜负。随机森林和 Bagging 的主要差别在于,前者分割的最佳特征是从一个随机特征子空间中选取的,而后者在分割时将考虑所有特征。

接下来,我们将查看随机森林和 Bagging 在分类问题上的表现。

np.random.seed(42)
X, y = make_circles(n_samples=500, factor=0.1, noise=0.35, random_state=42)
X_train_circles, X_test_circles, y_train_circles, y_test_circles = train_test_split(X, y, test_size=0.2)

dtree = DecisionTreeClassifier(random_state=42)
dtree.fit(X_train_circles, y_train_circles)

x_range = np.linspace(X.min(), X.max(), 100)
xx1, xx2 = np.meshgrid(x_range, x_range)
y_hat = dtree.predict(np.c_[xx1.ravel(), xx2.ravel()])
y_hat = y_hat.reshape(xx1.shape)
plt.contourf(xx1, xx2, y_hat, alpha=0.2)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=‘autumn’)
plt.title(“Decision tree”)
plt.show()

b_dtree = BaggingClassifier(
DecisionTreeClassifier(), n_estimators=300, random_state=42)
b_dtree.fit(X_train_circles, y_train_circles)

x_range = np.linspace(X.min(), X.max(), 100)
xx1, xx2 = np.meshgrid(x_range, x_range)
y_hat = b_dtree.predict(np.c_[xx1.ravel(), xx2.ravel()])
y_hat = y_hat.reshape(xx1.shape)
plt.contourf(xx1, xx2, y_hat, alpha=0.2)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=‘autumn’)
plt.title(“Bagging (decision trees)”)
plt.show()

rf = RandomForestClassifier(n_estimators=300, random_state=42)
rf.fit(X_train_circles, y_train_circles)

x_range = np.linspace(X.min(), X.max(), 100)
xx1, xx2 = np.meshgrid(x_range, x_range)
y_hat = rf.predict(np.c_[xx1.ravel(), xx2.ravel()])
y_hat = y_hat.reshape(xx1.shape)
plt.contourf(xx1, xx2, y_hat, alpha=0.2)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=‘autumn’)
plt.title(“Random forest”)
plt.show()


上图显示了决策树形成的边界凹凸不平,有大量锐角,这暗示出现过拟合现象。相反,随机森林和 Bagging 的边界相当平滑,没有明显的过拟合的迹象。

现在,看看哪些参数有利于提高随机森林模型的准确率。

随机森林的参数

scikit-learn 库提供了 BaggingRegressorBaggingClassifier 类,其中在创建新模型时需要注意的一些参数如下:

  • n_estimators 是随机森林中树的数量;
  • criterion 是衡量分割质量的函数;
  • max_features 是查找最佳分割时考虑的特征数;
  • min_samples_leaf 是叶节点的最小样本数;
  • max_depth 是树的最大深度。

随机森林在现实问题中的应用

使用之前运营商的客户离网数据集作为例子。这是一个分类问题,使用准确率评估模型。

首先,创建一个简单的分类器作为基线。出于简单的目的,只使用数值特征构建分类器。

import pandas as pd
from sklearn.model_selection import cross_val_score, StratifiedKFold, GridSearchCV
from sklearn.metrics import accuracy_score

加载数据集。

df = pd.read_csv("https://labfile.oss.aliyuncs.com/courses/1283/telecom_churn.csv")

选择数值特性。

cols = []
for i in df.columns:if (df[i].dtype == "float64") or (df[i].dtype == 'int64'):cols.append(i)

将数据集分离为输入变量和目标变量。

X, y = df[cols].copy(), np.asarray(df["Churn"], dtype='int8')

为验证过程进行分层分割。

skf = StratifiedKFold(n_splits=5, shuffle=True, random_state=42)

基于默认参数初始化分类器。

rfc = RandomForestClassifier(random_state=42, n_jobs=-1, oob_score=True)

在训练集上进行训练。

results = cross_val_score(rfc, X, y, cv=skf)

在测试集上评估准确率。

print("CV accuracy score: {:.2f}%".format(results.mean()*100))

得到了 91.48% 的准确率作为基线,现在,尝试改进结果,同时查看一下基本参数变化时的学习曲线。首先,从改进树的数量开始,初始化 K 折交叉验证。

skf = StratifiedKFold(n_splits=5, shuffle=True, random_state=42)

创建列表储存训练集和测试集上的准确率。

train_acc = []
test_acc = []
temp_train_acc = []
temp_test_acc = []

进行网格搜索。下方列表中候选数值较多,会增加线上环境执行时间,可以自行减少数量以加快运行。

trees_grid = [5, 10, 15, 20, 30, 50, 75, 100]

在训练集上训练模型。

for ntrees in trees_grid:rfc = RandomForestClassifier(n_estimators=ntrees, random_state=42, n_jobs=-1, oob_score=True)temp_train_acc = []temp_test_acc = []for train_index, test_index in skf.split(X, y):X_train, X_test = X.iloc[train_index], X.iloc[test_index]y_train, y_test = y[train_index], y[test_index]rfc.fit(X_train, y_train)temp_train_acc.append(rfc.score(X_train, y_train))temp_test_acc.append(rfc.score(X_test, y_test))train_acc.append(temp_train_acc)test_acc.append(temp_test_acc)

打印结果。

train_acc, test_acc = np.asarray(train_acc), np.asarray(test_acc)
print("Best accuracy on CV is {:.2f}% with {} trees".format(max(test_acc.mean(axis=1))*100,trees_grid[np.argmax(test_acc.mean(axis=1))]))

更改树的数量为 50 时,得到了 92.44% 的准确率。接下来,绘制相应的学习曲线。

plt.style.use('ggplot')

fig, ax = plt.subplots(figsize=(8, 4))
ax.plot(trees_grid, train_acc.mean(axis=1),
alpha=0.5, color=‘blue’, label=‘train’)
ax.plot(trees_grid, test_acc.mean(axis=1), alpha=0.5, color=‘red’, label=‘cv’)
ax.fill_between(trees_grid, test_acc.mean(axis=1) - test_acc.std(axis=1),
test_acc.mean(axis=1) + test_acc.std(axis=1), color=’#888888’, alpha=0.4)
ax.fill_between(trees_grid, test_acc.mean(axis=1) - 2*test_acc.std(axis=1),
test_acc.mean(axis=1) + 2*test_acc.std(axis=1), color=’#888888’, alpha=0.2)
ax.legend(loc=‘best’)
ax.set_ylim([0.88, 1.02])
ax.set_ylabel(“Accuracy”)
ax.set_xlabel(“N_estimators”)


上图表明,当树的数量增加到一定值时,测试集上的准确率不再提升,同时训练集上的准确率达到了 100%,这意味着出现过拟合。

为了避免过拟合,需要给模型加上正则化参数。下面将树的数目固定为 100,然后看看不同的 max_depth 效果如何,首先创建列表以保存训练和测试集上的准确率。

train_acc = []
test_acc = []
temp_train_acc = []
temp_test_acc = []
max_depth_grid = [3, 5, 7, 9, 11, 13, 15, 17, 20, 22, 24]

在训练集上训练模型。

for max_depth in max_depth_grid:rfc = RandomForestClassifier(n_estimators=100, random_state=42, n_jobs=-1, oob_score=True, max_depth=max_depth)temp_train_acc = []temp_test_acc = []for train_index, test_index in skf.split(X, y):X_train, X_test = X.iloc[train_index], X.iloc[test_index]y_train, y_test = y[train_index], y[test_index]rfc.fit(X_train, y_train)temp_train_acc.append(rfc.score(X_train, y_train))temp_test_acc.append(rfc.score(X_test, y_test))train_acc.append(temp_train_acc)test_acc.append(temp_test_acc)

打印结果。

train_acc, test_acc = np.asarray(train_acc), np.asarray(test_acc)
print("Best accuracy on CV is {:.2f}% with {} max_depth".format(max(test_acc.mean(axis=1))*100,max_depth_grid[np.argmax(test_acc.mean(axis=1))]))

fig, ax = plt.subplots(figsize=(8, 4))
ax.plot(max_depth_grid, train_acc.mean(axis=1),
alpha=0.5, color=‘blue’, label=‘train’)
ax.plot(max_depth_grid, test_acc.mean(axis=1),
alpha=0.5, color=‘red’, label=‘cv’)
ax.fill_between(max_depth_grid, test_acc.mean(axis=1) - test_acc.std(axis=1),
test_acc.mean(axis=1) + test_acc.std(axis=1), color=’#888888’, alpha=0.4)
ax.fill_between(max_depth_grid, test_acc.mean(axis=1) - 2test_acc.std(axis=1),
test_acc.mean(axis=1) + 2
test_acc.std(axis=1), color=’#888888’, alpha=0.2)
ax.legend(loc=‘best’)
ax.set_ylim([0.88, 1.02])
ax.set_ylabel(“Accuracy”)
ax.set_xlabel(“Max_depth”)


max_depth 在模型中起到了正则化的作用,过拟合现象有所缓解,模型准确率提高了一些。

另一个值得调整的重要参数是 min_samples_leaf,它也能起到正则化作用。首先,创建列表以保存训练和测试集上的准确率。

train_acc = []
test_acc = []
temp_train_acc = []
temp_test_acc = []
min_samples_leaf_grid = [1, 3, 5, 7, 9, 11, 13, 15, 17, 20, 22, 24]

在训练集上训练模型。

for min_samples_leaf in min_samples_leaf_grid:rfc = RandomForestClassifier(n_estimators=100, random_state=42, n_jobs=-1,oob_score=True, min_samples_leaf=min_samples_leaf)temp_train_acc = []temp_test_acc = []for train_index, test_index in skf.split(X, y):X_train, X_test = X.iloc[train_index], X.iloc[test_index]y_train, y_test = y[train_index], y[test_index]rfc.fit(X_train, y_train)temp_train_acc.append(rfc.score(X_train, y_train))temp_test_acc.append(rfc.score(X_test, y_test))train_acc.append(temp_train_acc)test_acc.append(temp_test_acc)

打印结果。

train_acc, test_acc = np.asarray(train_acc), np.asarray(test_acc)
print("Best accuracy on CV is {:.2f}% with {} min_samples_leaf".format(max(test_acc.mean(axis=1))*100,min_samples_leaf_grid[np.argmax(test_acc.mean(axis=1))]))

fig, ax = plt.subplots(figsize=(8, 4))
ax.plot(min_samples_leaf_grid, train_acc.mean(
axis=1), alpha=0.5, color=‘blue’, label=‘train’)
ax.plot(min_samples_leaf_grid, test_acc.mean(
axis=1), alpha=0.5, color=‘red’, label=‘cv’)
ax.fill_between(min_samples_leaf_grid, test_acc.mean(axis=1) - test_acc.std(axis=1),
test_acc.mean(axis=1) + test_acc.std(axis=1), color=’#888888’, alpha=0.4)
ax.fill_between(min_samples_leaf_grid, test_acc.mean(axis=1) - 2test_acc.std(axis=1),
test_acc.mean(axis=1) + 2
test_acc.std(axis=1), color=’#888888’, alpha=0.2)
ax.legend(loc=‘best’)
ax.set_ylim([0.88, 1.02])
ax.set_ylabel(“Accuracy”)
ax.set_xlabel(“Min_samples_leaf”)


在这一情形下,验证集上的准确率没有提高,但当验证集的准确率保持 92%以上时,过拟合的情况降低了 2%。

下面考虑 max_features 这一参数。在分类问题中,默认特征为「所有特征数的平方根」。首先,检查在这个例子中选择 4 个特征是否是最佳的,创建列表以保存训练和测试集的准确率。

train_acc = []
test_acc = []
temp_train_acc = []
temp_test_acc = []
max_features_grid = [2, 4, 6, 8, 10, 12, 14, 16]

在训练集上训练模型。

for max_features in max_features_grid:rfc = RandomForestClassifier(n_estimators=100, random_state=42, n_jobs=-1,oob_score=True, max_features=max_features)temp_train_acc = []temp_test_acc = []for train_index, test_index in skf.split(X, y):X_train, X_test = X.iloc[train_index], X.iloc[test_index]y_train, y_test = y[train_index], y[test_index]rfc.fit(X_train, y_train)temp_train_acc.append(rfc.score(X_train, y_train))temp_test_acc.append(rfc.score(X_test, y_test))train_acc.append(temp_train_acc)test_acc.append(temp_test_acc)

打印结果。

train_acc, test_acc = np.asarray(train_acc), np.asarray(test_acc)
print("Best accuracy on CV is {:.2f}% with {} max_features".format(max(test_acc.mean(axis=1))*100,max_features_grid[np.argmax(test_acc.mean(axis=1))]))

fig, ax = plt.subplots(figsize=(8, 4))
ax.plot(max_features_grid, train_acc.mean(axis=1),
alpha=0.5, color=‘blue’, label=‘train’)
ax.plot(max_features_grid, test_acc.mean(axis=1),
alpha=0.5, color=‘red’, label=‘cv’)
ax.fill_between(max_features_grid, test_acc.mean(axis=1) - test_acc.std(axis=1),
test_acc.mean(axis=1) + test_acc.std(axis=1), color=’#888888’, alpha=0.4)
ax.fill_between(max_features_grid, test_acc.mean(axis=1) - 2test_acc.std(axis=1),
test_acc.mean(axis=1) + 2
test_acc.std(axis=1), color=’#888888’, alpha=0.2)
ax.legend(loc=‘best’)
ax.set_ylim([0.88, 1.02])
ax.set_ylabel(“Accuracy”)
ax.set_xlabel(“Max_features”)


上图表明,在这个例子中,max_features=12 时模型表现最好。

我们已经看到学习曲线如何随着基本参数的变化而变化。现在,直接使用 GridSearch() 来查找最佳参数。首先,初始化参数集以进行穷举搜索和拟合。

# 原实验搜索参数
# parameters = {'max_features': [4, 7, 10, 13], 'min_samples_leaf': [
#     1, 3, 5, 7], 'max_depth': [5, 10, 15, 20]}
# 为加速线上环境执行,优化搜索参数
parameters = {'max_features': [10, 13], 'min_samples_leaf': [1, 3], 'max_depth': [5, 10]}
rfc = RandomForestClassifier(n_estimators=100, random_state=42,n_jobs=-1, oob_score=True)
gcv = GridSearchCV(rfc, parameters, n_jobs=-1, cv=skf, verbose=1)
gcv.fit(X, y)

打印结果。

gcv.best_estimator_, gcv.best_score_

调参之后,该模型的准确率达到了 92.7%。随机森林最重要的一点是它的准确率不会随着树的增加而下降,这意味着可以使用 10 棵树调整超参数,接着把树的数量从 10 增至 500 来提升准确率。

随机森林的方差和去相关

随机森林的方差可以用下式表达:

Varf(x)=ρ(x)σ2(x) \mathrm{Var} f(x) = \rho(x)\sigma^2(x)Varf(x)=ρ(x)σ2(x)

ρ(x)=Corr[T(x1,Θ1(Z)),T(x2,Θ2(Z))], \rho(x) = \mathrm{Corr}\left[T(x_1,\Theta_1(Z)),T(x_2,\Theta_2(Z))\right],ρ(x)=Corr[T(x1,Θ1(Z)),T(x2,Θ2(Z))],

其中,

  • ρ(x) \rho(x)ρ(x) 为任意两棵树之间的样本相关性;
  • Θ1(Z) \Theta_1(Z)Θ1(Z)Θ2(Z) \Theta_2(Z)Θ2(Z) 为在样本 ZZZ 的随机元素上,随机选择的一对树;
  • T(x,Θi(Z)) T(x,\Theta_i(Z))T(x,Θi(Z)) 为第 iii 个树分类器在输入向量 xxx 上的输出;
  • σ2(x) \sigma^2(x)σ2(x) 为任何随机选择的树上的样本方差:σ2(x)=Var[T(x,Θ(X))]\sigma^2(x) = \mathrm{Var}\left[T(x,\Theta(X))\right]σ2(x)=Var[T(x,Θ(X))]

很容易将 ρ(x) \rho(x)ρ(x) 误认为随机森林中已完成训练的树的平均相关性,其实并非如此。ρ(x) \rho(x)ρ(x) 是一对随机树在输入 xxx 上估计的理论相关性,它的值源自重复取样训练集以及之后随机选择的决策树对。用统计学术语来说,这个相关性是由 Z ZZΘ \ThetaΘ 的取样分布导致的。

任何一对树的条件相关性等于 0,因为 Bootstrap 和特征选取是独立同分布。如果考虑单棵树的方差,它几乎不受分割参数的影响(m mm),但分割参数在集成中是关键参数。另外,单棵决策树的方差要比集成高很多,如下图所示:(图来自《The Elements of Statistical Learning》)

随机森林的偏差

随机森林、Bagging 的偏差和单棵决策树一样:

\begin{array}{rcl} \mathrm{Bias} &=& \mu(x) - \mathrm{E}Z , f{rf}(x) \ &=& \mu(x) - \mathrm{E}Z , \mathrm{E}{\Theta | Z} , T(x,\Theta(Z))\end{array}

从绝对值上说,随机森林和 Bagging 的偏差通常比单棵决策树要大,因为随机过程和样本空间缩减使得模型受到了限制。因此,Bagging 和随机森林在预测准确率上比单棵决策树要高的原因仅仅源自方差的降低。

极端随机树

极端随机树(Extremely Randomized Trees)在节点分岔时应用了更多随机性。和随机森林一样,极端随机树使用一个随机特征子空间。然而,极端随机数并不搜寻最佳阈值,相反,它为每个可能的特征随机生成一个阈值,然后挑选最佳阈值对应的特征来分割节点,通过增加少量偏差来降低方差。

scikit-learn 库的 ExtraTreesClassifier()ExtraTreesRegressor() 类实现了该方法。如果使用随机森林或梯度提升遇到了严重的过拟合,可以试试极端随机树。

随机森林和 k 近邻的相似性

随机森林和 k-近邻方法有相似之处。随机森林的预测基于训练集中相似样本的标签,这些样本越常出现在同一叶节点,它们的相似度就越高。

下面来证明这一点,考虑一个二次损失函数的回归问题:设 Tn(x) T_n(x)Tn(x) 为输入 xxx 在随机森林中第 nnn 棵树的叶节点数。算法对输入向量 xxx 的响应等于所有落入叶节点 Tn(x) T_n(x)Tn(x) 的训练样本的平均响应。

bn(x)=∑i=1lwn(x,xi)yi, b_n(x) = \sum_{i=1}^{l}w_n(x,x_i)y_i,bn(x)=i=1lwn(x,xi)yi,

其中,

wn(x,xi)=[Tn(x)=Tn(xi)]∑j=1l[Tn(x)=Tn(xj)] w_n(x, x_i) = \frac{\left[T_n(x) = T_n(x_i)\right]}{\sum_{j=1}^{l}\left[T_n(x) = T_n(x_j)\right]}wn(x,xi)=j=1l[Tn(x)=Tn(xj)][Tn(x)=Tn(xi)]

故响应的构成为:

$$ \begin{array}{rcl} a_n(x) &=& \frac{1}{N}\sum_{n=1}^{N}\sum_{i=1}^{l}w_n(x,x_i)y_i \ &=& \sum_{i=1}^{l}\left(\frac{1}{N}\sum_{j=1}^{N}w_n(x,x_j)\right)y_i \end{array}$$

上式表明,随机森林的响应为所有训练样本响应的加权和。

同时,值得注意的是,实例 xxx 最终的叶节点数 Tn(x) T_n(x)Tn(x) 本身,就是一个有价值的特征。例如,我们可以这么做:

  • 基于随机森林或梯度提升技术在样本上训练决策树的复合模型
  • 再将类别特征 T1(x),…,Tn(x) T_1(x), \dots, T_n(x)T1(x),,Tn(x) 加入样本。

T1(x),…,Tn(x) T_1(x), \dots, T_n(x)T1(x),,Tn(x) 特征是非线性空间分割的结果,它们提供了关于样本之间的相似性的信息。《The Elements of Statistical Learning》一书中有一个例子,演示了随机森林和 k-近邻技术的相似性,如下图所示:

转换数据集为高维表示

随机森林主要用于监督学习,不过也可以应用于无监督学习。使用 scikit-learn 的 RandomTreesEmbedding() 方法,可以将数据集转换为高维的稀疏表示,继而用于无监督学习中。

首先创建一些极端随机树,接着使用包含样本的叶节点索引作为新特征。例如,若第一个叶节点包含输入,就分配 1 为特征值,否则,分配 0。这被称为二进制编码(binary coding),我们可以通过增减树的数目和深度来控制特征数量和稀疏性。由于相近(邻居)的数据点倾向于落入同一叶节点,所以这一转换提供了一个隐式的对数据点密度的非参数估计。

随机森林的优势和劣势

优势:

  • 高预测准确率。在大多数问题上表现优于线性算法,准确率与 Boosting 相当;
  • 随机取样导致其对离散值的鲁棒性较好;
  • 随机选取子空间导致其对特征缩放及其他单调转换不敏感;
  • 不需要精细的参数调整。
  • 在具有大量特征和类别的数据集上很高效;
  • 既可处理连续值,也可处理离散值;
  • 不容易出现过拟合。在实践中,增加树的数量几乎总是能提升总体表现。不过,当树的数量增大到一定值后,学习曲线将趋于平稳;
  • 有理论方法可以估计特征的重要性;
  • 能够很好地处理数据缺失。即使有大部分的数据缺失现象,仍能保持较好的准确率;
  • 支持整个数据集及单棵树样本上的加权分类;
  • 决策树底层使用的相似性计算可以用于后续的聚类、离散值检测或兴趣数据表示;
  • 以上功能和性质可以扩展到未标注数据,以支持无监督聚类,数据可视化和离散值检测;
  • 易于并行化,伸缩性强。

劣势:

  • 相比单棵决策树,随机森林的输出更难解释;
  • 特征重要性估计没有形式化的 p 值;
  • 在数据稀疏时(比如,文本输入、词袋),表现不如线性模型好;
  • 和线性回归不同,随机森林无法外推。不过,这样也就不会因为离散值的存在导致极端值的出现;
  • 在某些问题上容易过拟合,特别是处理高噪声数据时;
  • 处理数量级不同的类别数据时,随机森林偏重数量级较高的数据,因为这能更明显的提高准确率;
  • 所得模型较大,需要大容量的 RAM 来支撑。

特征的重要性

我们常常需要对算法的输出结果做出解释,在不能完全理解算法的情况下,至少希望能找出哪个输入特征对结果的贡献最大。基于随机森林,我们可以相当容易地获取这类信息。

方法精要

下图很直观地表明,在信用评分问题中,年龄比收入更重要。基于信息增益这一概念,我们可以形式化地解释这一点。

在随机森林中,某一特征在所有树中离树根的平均距离越近,这一特征在给定的分类或回归问题中就越重要。按照分割标准,在每棵树的每处最优分割中取得的增益(例如基尼不纯度),是与分割特征直接相关的重要度测度。

让我们深入了解一下。通过计算袋外误差可以判定是哪个变量导致平均准确率下降。哪一变量导致的准确率下降幅度越大,该变量的重要性评分(importance score)就越高。基尼不纯度或回归问题中 MSE 的下降程度代表了每个变量对所得随机森林模型节点的同质性贡献程度,下降较高标志着基于该变量进行分割可以得到纯度更高的节点。

以上分析可以用下述公式表达:

VI^{T} = \frac{\sum_{i \in \mathfrak{B}^T}I \Big(y_i=\hat{y}i^{T}\Big)}{\Big |\mathfrak{B}^T\Big |} - \frac{\sum{i \in \mathfrak{B}^T}I \Big(y_i=\hat{y}_{i,\pi_j}^{T}\Big)}{\Big |\mathfrak{B}^T\Big |}

其中,

  • y^i(T)=fT(xi) \hat{y}_i^{(T)} = f^{T}(x_i)y^i(T)=fT(xi) 是特征置换或排除之前的类型预测;
  • $ \hat{y}{i,\pi_j}^{(T)} = f^{T}(x{i,\pi_j})$ 是特征置换或排除后的类型预测;
  • xi,πj=(xi,1,…,xi,j−1,xπj(i),j,xi,j+1,…,xi,p) x_{i,\pi_j} = (x_{i,1}, \dots , x_{i,j-1}, \quad x_{\pi_j(i),j}, \quad x_{i,j+1}, \dots , x_{i,p})xi,πj=(xi,1,,xi,j1,xπj(i),j,xi,j+1,,xi,p).
  • 注意,若 xj x_jxj 不在树 T TT 中,那么 VIT(xj)=0 VI^{T}(x_j) = 0VIT(xj)=0

现在,可以给出集成中计算特征重要性的公式:

  • 未经正则化时的公式:

VI(xj)=∑T=1NVIT(xj)N VI(x_j) = \frac{\sum_{T=1}^{N}VI^{T}(x_j)}{N} VI(xj)=NT=1NVIT(xj)

  • 使用标准差正则化后的公式:

zj=VI(xj)σ^N z_j = \frac{VI(x_j)}{\frac{\hat{\sigma}}{\sqrt{N}}} zj=N

σ^VI(xj)

计算现实问题中的特征重要性

让我们考虑一个数据集,这数据集的内容是 Booking.com 和 TripAdvisor.com 上所列旅馆的一些信息,数据集的特征是不同类别(包括服务质量、房间状况、性价比等)的平均评分,目标变量为旅馆在网站上的总评分。首先导入相关库。

from sklearn.ensemble.forest import RandomForestRegressor
import numpy as np
import pandas as pd
import seaborn as sns
from matplotlib import pyplot as plt
from __future__ import division, print_function

%matplotlib inline


导入数据集。

hostel_data = pd.read_csv("https://labfile.oss.aliyuncs.com/courses/1283/hostel_factors.csv")
features = {"f1": u"Staff","f2": u"Hostel booking","f3": u"Check-in and check-out","f4": u"Room condition","f5": u"Shared kitchen condition","f6": u"Shared space condition","f7": u"Extra services","f8": u"General conditions & conveniences","f9": u"Value for money","f10": u"Customer Co-creation"}

使用随机森林训练模型。

forest = RandomForestRegressor(n_estimators=1000, max_features=10,random_state=0)forest.fit(hostel_data.drop(['hostel', 'rating'], axis=1),hostel_data['rating'])
importances = forest.feature_importances_indices = np.argsort(importances)[::-1]

标出随机森林模型中的特征重要性。

num_to_plot = 10
feature_indices = [ind+1 for ind in indices[:num_to_plot]]

打印特征重要性排名(重要性从高到低排列)。

print("Feature ranking:")for f in range(num_to_plot):print("%d. %s %f " % (f + 1,features["f"+str(feature_indices[f])],importances[indices[f]]))
plt.figure(figsize=(15, 5))
plt.title(u"Feature Importance")
bars = plt.bar(range(num_to_plot),importances[indices[:num_to_plot]],color=([str(i/float(num_to_plot+1))for i in range(num_to_plot)]),align="center")
ticks = plt.xticks(range(num_to_plot),feature_indices)
plt.xlim([-1, num_to_plot])
plt.legend(bars, [u''.join(features["f"+str(i)])for i in feature_indices])

上图表明,消费者常常更关心服务人员素质(Staff)和性价比(Value for money),这两个因子对最终评分的影响最大。然而,这两项特征和其他特征的差别不是非常大,因此排除任何特征都会导致模型准确率的下降。

梯度提升介绍

在机器学习中,有一些算法通过常被称为弱模型,这里所说的“弱模型”指的是像决策树这样简单的基本模型,也指的是那些精度相对较差的模型,也就是比随机模型好那么一点点的模型。

先来思考一个 问题:是否可以从大量相对较弱和简单的模型中通过某种手段而得到一个强大的模型?

正如你想的一样,这个问题的 答案 显然是肯定的。集成方法就是其中的一类,集成学习的算法有很多,先从最简单的开始:AdaBoost 。

AdaBoost 采用的是一种贪婪的学习方法。在算法学习时,会给数据样本的每个都会附一个权重值,每一个基分类器开始进行分类前,都会根据前一个分类器的分类误差来调节样本的权重值。然后通线性组合的方式把所有的基分类器集成起来得到一个强分类器。整个过程可以描述为下图所示。

从上图中可知,在第一棵分类树(t=1)建立之后,会有三个蓝色的数据点被错分。因此在第二棵树建立的时候会增大这三个数据点的权值,以此类推。最终我们将三个基分类器结合起来,就得到了一个完美的分类器。如下图所示:

整个过程要是用数学公式描述的话,整个过程如下。

  • 首先,给每个样本一个初始的权重值:wi(0)=1l,i=1,…,l w_i^{(0)} = \frac{1}{l}, i = 1, \dots, lwi(0)=l1,i=1,,l
  • 遍历所有 t=1,…,Tt = 1, \dots, Tt=1,,T
    • 训练基分类器 bt b_tbt, 并令 ϵt\epsilon_tϵt 等于分类误差。
    • αt=12ln1−ϵtϵt\alpha_t = \frac{1}{2}ln\frac{1 - \epsilon_t}{\epsilon_t}αt=21lnϵt1ϵt
    • 更新样本权重: wi(t)=wi(t−1)e−αtyibt(xi),i=1,…,l w_i^{(t)} = w_i^{(t-1)} e^{-\alpha_t y_i b_t(x_i)}, i = 1, \dots, lwi(t)=wi(t1)eαtyibt(xi),i=1,,l
    • 归一化样本权重: w0(t)=∑j=1kwj(t),wi(t)=wi(t)w0(t),i=1,…,l w_0^{(t)} = \sum_{j = 1}^k w_j^{(t)}, w_i^{(t)} = \frac{w_i^{(t)}}{w_0^{(t)}}, i = 1, \dots, lw0(t)=j=1kwj(t),wi(t)=w0(t)wi(t),i=1,,l
  • 返回 ∑tTαtbt\sum_t^{T}\alpha_tb_ttTαtbt

当进行迭代时,可以看到误分类点权重的增加,特别是在类之间的边界上。 这里 有一个关于 AdaBoost 的更详细的例子。

AdaBoost 分类效果确实不错,但为何这一算法如此成功却 缺乏解释。这会让一些人持怀疑态度,认为 AdaBoost 只是过度拟合而已。

过度拟合问题也确实存在,尤其是在当数据有非常怪异的异常值时,过拟合现象较为严重。因此,在这些类型的问题中,AdaBoost 是不稳定的。为解决这些问题,1999 年,杰罗姆·弗里德曼( Jerome Friedman )提出了 AdaBoost 的泛化版本:梯度提升( Machine ),也称为 GBM 。

CART、 bootstrap 和许多其他算法都起源于斯坦福大学的统计部门。这些算法都非常的实用,但也有一些近年来研究工作尚未得到广泛的应用。例如, glinternet

现在关于弗里德曼的录像资料不多。不过,有一个非常有趣的 访谈,关于如何提出 CART ,以及 CART 如何解决统计学问题。Hastie 也有一个很棒的 讲座

对于 AdaBoost 算法,虽然我们可以通过添加弱算法和逐步改进误分类数据的权值来增强集成算法。但是,这还不够,例如 GBM 不仅建立在重新加权的数据点上,而且改进了它对整体目标函数梯度的逼近。这个概念极大地打开了集成算法的研究思路。

GBM 的历史

自从 GBM 诞生以来,经过了 10 多年的时间,它才成为数据科学工具箱中必不可少的一部分。为了应用于不同的统计问题,GBM 拥有许多的扩展版本,例如:GLMboost 和 GAMboost 用于增强已有的 GAM 模型,CoxBoost 用于存活曲线,RankBoost 和 LambdaMART 用于排序问题。

GBM 的许多实现也以不同的名称出现在不同的平台上。例如:随机 GBM、GBDT (梯度提升决策树)、GBRT (梯度提升回归树)、MART (多元加性回归树)等等。此外,由于 ML 社区又是各自为营,所以这使我们很难去知道 GBM 到底得到多广泛的应用,到底有多少个版本等问题。

同时,GBM 也在搜索排序中也得到了广泛的应用。GBM 的加入使得搜索排序被看作为一个优化损失函数问题。最初,AltaVista 是第一批引入提升排名的公司之一。但很快,这些思路就传播到了雅虎、Yandex、必应等网站。从此之后,GBM 成为了主流的算法之一,不仅用于研究,而且也广泛用于工业生产中。

许多的机器学习竞赛,尤其是 Kaggle,在促进普及算法的应用方面发挥了重要作用。因为 Kaggle 提供了一个共同的平台,这使得数据科学家们可以在不同的数据科学问题上与来自世界各地的大量参与者竞争。人们可以在 Kaggle上用真实数据上测试新的算法,让许多算法有机会“发光”。

自 2011 年以来,在 Kaggle 的冠军访谈中,许多的获奖选手都提到自己使用了梯度提升算法。这也使得梯度提升变得流行起来。尤其是在 XGBoost 库出现之后。XGBoost 虽然不是一个新的、独特的算法,但其是一个经典 GBM 的高效实现版。

GBM 的经历与许多机器学习算法一样:从被提出到成功的实践应用和大规模使用都花了许多年的时间。

GBM 算法

先来看一个经典的监督学习问题,假设这里有一份数据集 $ \left{ (x_i, y_i) \right}_{i=1, \ldots,n}$ , x x x 表示特征值,yyy 表示目标值。构建模型就相当于构建一个函数 f(x)f(x)f(x) ,用 f(x)f(x)f(x) 去逼近目标值 y yy。定义损失函数 L(y,f(x))L(y,f(x))L(y,f(x)) 来表示预测值f(x)f(x)f(x) 与真实值 yyy 之间的距离。通过最小化损失函数,就可以得到:

y≈f^(x) y \approx \hat{f}(x)yf^(x)

f^(x)=arg⁡min⁡f(x) L(y,f(x)) \hat{f}(x) = \underset{f(x)}{\arg\min} \ L(y,f(x)) f^(x)=f(x)argminL(y,f(x))

在这里先不管 f(x)f(x)f(x) 是具体哪一个模型或某个具体的表达式,仅假定损失函数 L(y,f(x))L(y,f(x))L(y,f(x)) 是可微的。如果损失函数取的是整个样本的均值,则最小化损失函数可以表达为:

f^(x)=arg⁡min⁡f(x) Ex,y[L(y,f(x))] \hat{f}(x) = \underset{f(x)}{\arg\min} \ \mathbb {E} _{x,y}[L(y,f(x))] f^(x)=f(x)argminEx,y[L(y,f(x))]

一般情况下, f(x)f(x)f(x) 的选择有很多,这意味着寻找最优的 f(x)f(x)f(x) 会变得很困难。所以要对 f(x)f(x)f(x) 加以限制,将其限制在一个函数空间内。假设模型的参数为 θ\theta θ,定义 θ∈Rd\theta \in \mathbb{R}^d θRd,则模型可描述为 f(x,θ) f(x, \theta)f(x,θ)。所以现在寻找最优的 f(x)f(x)f(x) 相当于要寻找一组参数 θ\theta θ ,使得损失函数 L(y,f(x))L(y,f(x))L(y,f(x)) 达到最小。用公式描述如下:

f^(x)=f(x,θ^) \hat{f}(x) = f(x, \hat{\theta})f^(x)=f(x,θ^)

θ^=arg⁡min⁡θ Ex,y[L(y,f(x,θ))] \hat{\theta} = \underset{\theta}{\arg\min} \ \mathbb {E} _{x,y}[L(y,f(x,\theta))] θ^=θargminEx,y[L(y,f(x,θ))]

由于 f(x)f(x)f(x) 相对比较复杂。一般情况下,解析解不存在或无法直接求得。所以要使用迭代的方法来逼近参数。定义经验损失函数为 Lθ(θ^) L_{\theta}(\hat{\theta}) Lθ(θ^) ,其计算公式如下:

θ^=∑i=1Mθi^ \hat{\theta} = \sum_{i = 1}^M \hat{\theta_i} θ^=i=1

集成学习和随机森林方法相关推荐

  1. 《Scikit-Learn与TensorFlow机器学习实用指南》第7章 集成学习和随机森林

    第7章 集成学习与随机森林 来源:ApacheCN<Sklearn 与 TensorFlow 机器学习实用指南>翻译项目 译者:@friedhelm739 校对:@飞龙 假设你去随机问很多 ...

  2. 大白话5分钟带你走进人工智能-第二十八节集成学习之随机森林概念介绍(1)

                                                          第二十八节集成学习之随机森林概念介绍(1) 从本系列开始,我们讲解一个新的算法系列集成学习. ...

  3. 机器学习——基于Bagging的集成学习:随机森林(Random Forest)及python实现

    基于Bagging的集成学习:随机森林的原理及其实现 引入 Bagging装袋 随机森林 随机森林分类 随机森林回归 python实现 随机森林分类 随机森林回归 引入 "三个臭皮匠赛过诸葛 ...

  4. 大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out of bag data及代码(2)

              大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out  of  bag  data及代码(2) 上一节中我们讲解了随机森林的基本概念,本节的话我们讲解随机森 ...

  5. sklearn综合示例7:集成学习与随机森林

    假设你创建了一个包含1000个分类器的集成,每个分类器都只有51%的概率是正确的(几乎不比随机猜测强多少).如果你以大多数投票的类别作为预测结果,可以期待的准确率高达75%.但是,这基于的前提是所有的 ...

  6. 机器学习-集成学习:随机森林(Random Forest)

    内容参考:https://github.com/NLP-LOVE/ML-NLP/tree/master/Machine%20Learning/3.1%20Random%20Forest​​​​​ 略做 ...

  7. 机器学习实战7-sklearn集成学习和随机森林

    集成方法:聚合一组预测器(比如分类器或回归器)的预测,得到的预测结果也比最好的单个预测器要好. 例如,你可以训练一组决策树分类器,每一棵树都基于训练集不同的随机子集进行训练.做出预测时,你只需要获得所 ...

  8. 第13章 集成学习和随机森林

    1.什么是集成学习? kNN,逻辑回归,SVM,决策树,神经网络,贝叶斯->>用多数算法最终给出的结果当做最终的决策依据,投票:少数服从多数 Voting Classifier(sciki ...

  9. [Hands On ML] 7. 集成学习和随机森林

    文章目录 1. 投票分类 2. Bagging.Pasting 3. Out of Bag 评价 4. 随机贴片与随机子空间 5. 随机森林 6. 极端随机树 Extra-Trees 7. 特征重要程 ...

最新文章

  1. Docker 最初的2小时(Docker从入门到入门)
  2. 动态性能视图v$lock访问很慢的解决办法
  3. 性能测试Loadrunner与Mysql
  4. c语言打开外部doc文件,C语言-内部函和外部函数.doc
  5. 二叉树总结挺好的很好记忆
  6. JDBC学习笔记 day1
  7. ON1 photo raw 2021(ps/lr滤镜插件) 下载及安装
  8. [深度学习-原理]浅谈Attention Model
  9. webpack安装报错(Unexpected end of JSON input while parsing near '...e6139ad7957,tarball')
  10. VS2013 安装配置 C++ boost 库
  11. Apache Flink 零基础入门教程(六):状态管理及容错机制
  12. Golang语言 零基础入门教程
  13. 跟大家分享一下牛人常用的资源(牛客网 )!
  14. java程序员实习日记_java实习日记.doc
  15. 读《混世小农民》有感
  16. vulnhub靶机ME AND MY GIRLFRIEND: 1
  17. python在哪里学比较好,python从哪里学起
  18. 鼓励师加成太刺激,鼻血喷了半斤,代码不一会儿就写完了...
  19. echarts 修改地图经纬度
  20. 吴恩达深度学习笔记(10)-更多的导数讲解

热门文章

  1. INTJ型人格适合选择哪些专业?
  2. uniapp 保存图片到本地
  3. 自由变换——道策VS安井知哲
  4. duilib:高Dpi下程序 适配
  5. mysql随机生成中文地址_MySQL随机生成电话号码,邮箱和中文姓名sql
  6. antd.pro中表格的国际化处理
  7. i3-1005g1怎么样
  8. Matlab中pickic_中英双语小猪佩奇学英语Picnic野餐
  9. 微信小程序(三):选座系统(主要内容:列表渲染的应用)
  10. 2019年第十届“浪潮杯”山东省大学生ACM程序设计竞赛--赛后总结感想