一、随机森林之回归

RandomForestRegressor
class sklearn.ensemble.RandomForestRegressor (n_estimators=’warn’, criterion=’mse’, max_depth=None,min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’,max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False,n_jobs=None, random_state=None, verbose=0,warm_start=False)
所有的参数,属性与接口,全部和随机森林分类器一致。仅有的不同就是回归树与分类树的不同,不纯度的指标,参数Criterion不一致
1.1 重要参数,属性与接口
criterion
关于这以参数在随机森林的回归里和决策树回归是一样的,可以参见决策树之回归树的博客。最重要的属性和接口,都与随机森林的分类器相一致,还是apply, fit, predict和score最为核心。值得一提的是,随机森林回归并没有predict_proba这个接口,因为对于回归来说,并不存在一个样本要被分到某个类别的概率问题,因此没有predict_proba这个接口。
随机森林回归用法和决策树完全一致,除了多了参数n_estimators

from sklearn.datasets import load_boston
from sklearn.model_selection import cross_val_score
from sklearn.ensemble import RandomForestRegressor
boston = load_boston()
regressor = RandomForestRegressor(n_estimators=100,random_state=0)
cross_val_score(regressor, boston.data, boston.target, cv=10,scoring = "neg_mean_squared_error")
sorted(sklearn.metrics.SCORERS.keys())#sklearn当中的模型评估指标(打分)列表
# scoring='neg_mean_squared_error'表示返回负的均方误差,如果不加上这个参数,返回的则是R**2

均方误差的负数:

array([-10.72900447,  -5.36049859,  -4.74614178, -20.84946337,-12.23497347, -17.99274635,  -6.8952756 , -93.78884428,-29.80411702, -15.25776814])

部分指标:

['accuracy','adjusted_mutual_info_score','adjusted_rand_score','average_precision','balanced_accuracy','brier_score_loss','completeness_score','explained_variance','f1','f1_macro','f1_micro','f1_samples','f1_weighted','fowlkes_mallows_score','homogeneity_score','mutual_info_score','neg_log_loss',

二、实例:用随机森林回归填补缺失值

2.1导入相关的库

# 1.#导入需要的库
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import load_boston
from sklearn.impute import SimpleImputer
from sklearn.ensemble import RandomForestRegressor#填补缺失值的类
from sklearn.model_selection import  cross_val_score

2.2导入波士顿的数据集

boston=load_boston()
boston.data.shape

2.3为了不影响原始的数据集,可以先复制一份

#总共506*13=6578个数据
x_full,y_full=boston.data,boston.target
n_samples=x_full.shape[0]
n_features=x_full.shape[1]

2.4下面为完整的数据集放入缺失值

#首先确定我们希望放入的缺失数据的比例,在这里我们假设是50%,那总共就要有3289个数据缺失rng = np.random.RandomState(0)
missing_rate = 0.5
n_missing_samples = int(np.floor(n_samples * n_features * missing_rate))#np.floor向下取整,返回.0格式的浮点数
#所有数据要随机遍布在数据集的各行各列当中,而一个缺失的数据会需要一个行索引和一个列索引
#如果能够创造一个数组,包含3289个分布在0~506中间的行索引,和3289个分布在0~13之间的列索引,那我们就可以利用索引来为数据中的任意3289个位置赋空值,然后我们用0,均值和随机森林来填写这些缺失值,然后查看回归的结果如何missing_features = rng.randint(0,n_features,n_missing_samples)
missing_samples = rng.randint(0,n_samples,n_missing_samples)
#missing_samples = rng.choice(dataset.data.shape[0],n_missing_samples,replace=False)'''我们现在采样了3289个数据,远远超过我们的样本量506,所以我们使用随机抽取的函数randint。但如果我们需要的数据量小于我们的样本量506,那我们可以采用np.random.choice来抽样,choice会随机抽取不重复的随机数,因此可以帮助我们让数据更加分散,确保数据不会集中在一些行中
'''
x_missing = x_full.copy()
y_missing = y_full.copy()
x_missing[missing_samples,missing_features] = np.nan
x_missing = pd.DataFrame(x_missing)#转换成DataFrame是为了后续方便各种操作,numpy对矩阵的运算速度快到拯救人生,但是在索引等功能上却不如pandas来得好用

2.5、使用0和均值补全缺失值

#使用均值进行填补
from sklearn.impute import SimpleImputer
imp_mean = SimpleImputer(missing_values=np.nan, strategy='mean')#实例化
x_missing_mean = imp_mean.fit_transform(x_missing)
#使用0进行填补
imp_0 = SimpleImputer(missing_values=np.nan, strategy="constant",fill_value=0)
x_missing_0 = imp_0.fit_transform(x_missing)
#训练加导出等价于fit+predict>>>特殊接口fit_transfrom
pd.DataFrame(x_missing_mean).isnull().sum()
#查看是否还存在缺失值,说明缺失值已经全部填充了

结果:

0     0
1     0
2     0
3     0
4     0
5     0
6     0
7     0
8     0
9     0
10    0
11    0
12    0
dtype: int64

表示已经不存在缺失值了
2.6、用随机森林回归填补缺失值
“”"
使用随机森林回归填补缺失值
任何回归都是从特征矩阵中学习,然后求解连续型标签y的过程,之所以能够实现这个过程,是因为回归算法认为,特征矩阵和标签之前存在着某种联系。实际上,标签和特征是可以相互转换的,比如说,在一个“用地区,环境,附近学校数量”预测“房价”的问题中,我们既可以用“地区”,“环境”,“附近学校数量”的数据来预测“房价”,也可以反过来,用“环境”,“附近学校数量”和“房价”来预测“地区”。而回归填补缺失值,正是利用了这种思想。
对于一个有n个特征的数据来说,其中特征T有缺失值,我们就把特征T当作标签,其他的n-1个特征和原本的标签组成新的特征矩阵。那对于T来说,它没有缺失的部分,就是我们的Y_train,这部分数据既有标签也有特征,而它缺失的部分,只有特征没有标签,就是我们需要预测的部分。
特征T不缺失的值对应的其他n-1个特征 + 本来的标签:X_train
特征T不缺失的值:Y_train
特征T缺失的值对应的其他n-1个特征 + 本来的标签:X_test
特征T缺失的值:未知,我们需要预测的Y_test
这种做法,对于某一个特征大量缺失,其他特征却很完整的情况,非常适用。
那如果数据中除了特征T之外,其他特征也有缺失值怎么办?
答案是遍历所有的特征,从缺失最少的开始进行填补(因为填补缺失最少的特征所需要的准确信息最少)。填补一个特征时,先将其他特征的缺失值用0代替,每完成一次回归预测,就将预测值放到原本的特征矩阵中,再继续填补下一个特征。每一次填补完毕,有缺失值的特征会减少一个,所以每次循环后,需要用0来填补的特征就越来越少。当进行到最后一个特征时(这个特征应该是所有特征中缺失值最多的),已经没有任何的其他特征需要用0来进行填补了,而我们已经使用回归为其他特征填补了大量有效信息,可以用来填补缺失最多的特征。遍历所有的特征后,数据就完整,不再有缺失值了。
“”"
下面是实现结果;

x_missing_reg = x_missing.copy()
sortindex = np.argsort(x_missing_reg.isnull().sum(axis=0)).values
# np.argsort()返回从小大到大顺序的索引
#找出数据集中缺失值从小到大的排序
#首先我们需要知道缺失值最少的特征咧
for i in sortindex:#构建我们的新特征矩阵和新标签df=x_missing_regfillc = df.iloc[:,i]df = pd.concat([df.iloc[:,df.columns != i],pd.DataFrame(y_full)],axis=1)#在新特征矩阵中,对含有缺失值的列,进行0的填补df_0 =SimpleImputer(missing_values=np.nan,strategy='constant',fill_value=0).fit_transform(df)#找出我们的训练集和测试集y_train = fillc[fillc.notnull()]y_test = fillc[fillc.isnull()]x_train = df_0[y_train.index,:]x_test = df_0[y_test.index,:]#用随机森林回归来填补缺失值rfc = RandomForestRegressor(n_estimators=100)rfc = rfc.fit(x_train, y_train)y_predict = rfc.predict(x_test)#将填补好的特征返回到我们的原始的特征矩阵中x_missing_reg.loc[x_missing_reg.iloc[:,i].isnull(),i] = y_predict

2.6.1对填补好的数据集进行建模

#对所有数据进行建模,取得MSE结果
X = [X_full,X_missing_mean,X_missing_0,X_missing_reg]
mse = []
std = []
for x in X:estimator = RandomForestRegressor(random_state=0, n_estimators=100)scores = cross_val_score(estimator,x,y_full,scoring='neg_mean_squared_error',
cv=5).mean()mse.append(scores * -1)
print(mse)

结果:

[21.628604607435442, 40.844054769559293, 49.506570288934171, 19.365935065385358]

2.6.2经结果进行可视化展示

x_labels = ['Full data','Zero Imputation','Mean Imputation','Regressor Imputation']
colors = ['r', 'g', 'b', 'orange']
plt.figure(figsize=(12, 6))
ax = plt.subplot(111)#添加子图,所有的都要在子图上进行操作
for i in np.arange(len(mse)):#barh 表示横向的柱状图ax.barh(i, mse[i],color=colors[i], alpha=0.6, align='center')
ax.set_title('Imputation Techniques with Boston Data')
ax.set_xlim(left=np.min(mse) * 0.9,right=np.max(mse) * 1.1)
ax.set_yticks(np.arange(len(mse)))
ax.set_xlabel('MSE')
ax.set_yticklabels(x_labels)
plt.show()


从图中的结果可以看出来,随机森林回归方法的缺失值填充效果最好。

机器学习-随机森林之回归相关推荐

  1. 《scikit-learn》随机森林之回归

    今天我们学习下随机森林做回归的用法 话不多说直接上测试代码,看的更加清晰,总体上和回归树是一样的使用流程 from sklearn.datasets import load_boston from s ...

  2. 扩增子16S/ITS/18S微生物多样性课程更新-机器学习随机森林分析

    扩增子16S/ITS/18S微生物多样性课程更新-机器学习随机森林分析 机器学习或者人工智能(AI)是当前计算机领域研究的热点.然而,最近越来越多的研究者开始尝试将 AI 应用于另一个热门领域--微生 ...

  3. 机器学习——随机森林特征选择及周期性分析

    一.随机森林 随机森林由LeoBreiman提出,从原始训练样本集N中有放回地重复随机抽取k个样本生成新的训练样本集合,然后根据自助样本集生成k个分类树组成随机森林,新数据的分类结果按分类树投票多少形 ...

  4. 机器学习算法概述:随机森林逻辑回归

    摘要: 机器学习算法入门介绍:随机森林与逻辑回归! 随机森林是用于分类和回归的监督式集成学习模型.为了使整体性能更好,集成学习模型聚合了多个机器学习模型.因为每个模型单独使用时性能表现的不是很好,但如 ...

  5. 机器学习 - 随机森林 Random Forest

    先修知识: 决策树.可以看我之前写的文章https://blog.csdn.net/weixin_41332009/article/details/112276531 集成学习.也可以看之前写的文章h ...

  6. [python] 机器学习 随机森林算法RandomForestRegressor

    前言 随机森林Python版本有很可以调用的库,使用随机森林非常方便,主要用到以下的库 sklearn Scikit learn 也简称 sklearn, 是机器学习领域当中最知名的 python 模 ...

  7. 机器学习-随机森林-分类

    一.机器学习之随机森林 1.1 集成算法概述 集成学习(ensemble learning)是时下非常流行的机器学习算法,它本身不是一个单独的机器学习算法,而是通过在数据上构建多个模型,集成所有模型的 ...

  8. 机器学习-随机森林(RandomForest)详解

    1.什么是随机森林 随机森林就是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质属于机器学习的一大分支--集成学习(Ensemble Learning)方法. 解读下上面的话 ...

  9. 机器学习--随机森林

    目录 1.集成算法概述 2.sklearn中的集成算法 3.随机森林分类器 RandomForestClassifier 3.1重要参数 3.2建立随机森林分类器 3.3random_state 3. ...

  10. 随机森林RandomForest回归生物标记预测时间序列

    关于随机森林的简介和应用理论,请阅读之前分享的文章: 一文读懂随机森林在微生态中的应用 关于随机森林进行分类的入门实战,请阅读之前分享的 <RandomForest:随机森林预测生物标记biom ...

最新文章

  1. css实现 textarea 高度自适应
  2. 盘点2018年计算机视觉领域技术突破
  3. Python访问MySQL数据库
  4. SO_SNDTIMEO和SO_RCVTIMEO
  5. K8S完整部署项目实战案例
  6. 活动安排问题的 动态规划和贪心算法
  7. java mongodb 返回所有field_Python爬虫框架:scrapy爬取知乎关注用户存入mongodb
  8. Servlet是否单例?
  9. 现在大火的Web3是什么 web1 web2
  10. 新建UE4 c++类
  11. 【web素材】01-10款大气的购物商城网站模板
  12. 微信公众号如何开通支付功能?
  13. python打印的时候print(f“*******“) 的括号里的 f‘ ‘ 是什么意思 ?
  14. Java基础--数值和字符串
  15. MyEclipse链接SQLSERVER数据库时18456的问题
  16. 一次使用 Go 语言编写脚本的经历
  17. 蓝牙基础知识进阶——Link Manager通用规则介绍
  18. educoder数据结构与算法 图 第2关:实现图的深度优先遍历
  19. 折纸 瓦力机器人_一张纸成千种形态机器人:折纸机器人,神奇的创造
  20. 计算机远程用户关机指令,详细介绍一个远程关机命令

热门文章

  1. js定时刷新页面数据
  2. diffmerge对比时出现中文乱码的解决办法
  3. LeetCode中等题之整数转罗马数字
  4. 如何在html中添加视频链接,在ppt中加入视频超链接的方法步骤
  5. 一键轻松去除抖音火山等短视频水印~
  6. C# HttpServer 框架
  7. 写给前端的区块链开发入门指南:零基础开发基于以太坊智能合约的 ICO DApp
  8. matlab与comsol的连接
  9. 选择排序(java代码实现)
  10. 编程分钟转化小时怎么编_贴片机编程教程,编程步骤,编程怎么编