2020-09-03 14:12:13

“数据只是数千个故事的整合,讲述其中一些故事可以为数据赋予意义。”——Chip & Dan Heath

本文最初发布于 Medium,经原作者授权由 InfoQ 中文站翻译并分享。

数据是什么?

数据是指在某领域中能够描述你所想解决问题的例子,而数据的选择则取决于你想满足的任务目标。下面是一些提供各种开源数据常用的网站,方便各位建立属于自己的机器学习应用,向成功更进一步。

Kaggle - 井井有条的平台,学习者的乐园,在其内核的帮助下,甚至可以不用下载直接在平台上处理数据。

UCI 机器学习数据库- 包含大量种类繁多的数据集,为机器学习社区服务。

Data.gov - 提供各国的公开数据下载,从政府预算到学校成绩应有尽有。

CMU 图书馆- 由卡内基梅隆大学(Carnegie Mellon University)提供的各个领域高质量数据集。

谷歌数据集搜索 - 无论是出版者网站,数字图书馆,或者是数据集作者的网页,你都可以通过它搜索到。

数据收集的下一步是数据转换,让数据更符合不同机器学习算法的的要求。如何准备项目中最独特的建模数据,一直都是机器学习项目中的难点。

数据准备是指如何将原始数据转化为更适合建模形式的过程,而“数据的质量比复杂的算法更重要”。为了让原始数据所包含的信息更多也更明确,我们需要有一套可以解决任何建模问题的数据准备工作。

在本文中,作者将以汽车价格预测数据集为例,带你一步步走进数据准备。

数据准备的内容包括:

  • 数据清洗
  • 特征工程
  • 数据转换
  • 特征提取

数据清洗

这一步应该算是最难的一步,大多数真实生活中的数据都或多或少有因为观察时的误会而导致的错误,这时为了拿到干净的可靠数据,就需要利用专业知识来辨别数据属性中的异常值。数据清理过程不是件容易事,你需要花费大量时间来提升数据质量。不过值得庆幸的是,数据清理方法也有很多,例如:

  1. 检测空数值或缺失行
  2. 搜索重复行并将其移除
  3. 基于统计技术,利用专业知识发现离群点
  4. 确定列的分布情况,并剔除没有方差的列

以下是用于清洗“汽车价格预估”数据集的代码片段:

# 读取数据
df_car = pd.read_csv('CarPrice_Assignment.csv')
df_car.head(10)  # 显示前十行数据
df_car.drop(['car_ID'], axis=1, inplace=True)  # 重复信息,丢弃 car_ID 列
# 检查列是否包含空数值df_car.isnull().sum()# 丢弃重复行df_car.drop_duplicates(inplace=True)# 根据其类型分配列名cat_variable = []num_variable = []for col in df_car.columns:if df_car[col].dtype == 'object':cat_variable.append(col)elif df_car[col].dtype == 'float' or df_car[col].dtype == 'int64':num_variable.append(col)# CarName 列中类别数量 df_car['CarName'].value_counts()
# 检测数字变量中的离群点df_car[num_variable].describe()

特征工程

特征工程指的是从现有数据中创建新的输入变量的过程。一般来说,数据清洗可以算是一个减法的过程,而特征工程则是一个加法的过程。

新功能的工程化是高度针对数据和数据类型的,因为其有助于隔离和突出关键信息,从而帮助算法“聚焦”于重要的东西,特征工程是数据科学家们为提高模型性能而做的最有价值的工作之一。

一些常用的特征工程技巧如下:

  1. 分箱(binning)
  2. 取对数(Log Transformation)
  3. 特征分割
  4. 组合稀疏类

特征工程与数据转换非常相似,但因为不同问题对相关领域知识的要求,特征工程被单独列为数据准备的技巧之一。

以“汽车价格预估”数据集为例,特征工程步骤如下:

# 分离汽车及其公司名称,从而进行特征分割
# 检查 Company_name 列是否有重复数据 df_car['Company_name'] = df_car['CarName'].apply(lambda x:x.split(' ')[0])
df_car['Company_name'].value_counts()
df_car.drop(labels='CarName',axis=1,inplace=True)
# 创建字典合并相似公司名称company_name_map_dict = {    'maxda' : 'mazda','vw' : 'volkswagen','toyouta' : 'toyota','Nissan' : 'nissan','vokswagen' : 'volkswagen','porcshce' : 'porsche'}
df_car['Company_name'] = df_car['Company_name'].replace(company_name_map_dict)
df_car['Company_name'].value_counts()
# 绘图显示 price 与 Company_name 的关系plt.figure(figsize=(20, 8))
sns.boxplot(x = 'Company_name', y = 'price', data = df_car)
# 绘图显示数字列是否有线性相关plt.figure(figsize=(30, 25))
for i, col in enumerate(num_variable):plt.subplot(5,3,i+1)sns.regplot(col, 'price', df_car, fit_reg=False)

数据转换

收集到的数据很少可以直接用于预测。这些数据可能格式不对或者需要先进行转换才能继续使用,而数据转换可以改变数据变量的分布类型。

数据中的属性以数字或类别值的形式存储信息,但机器学习算法的局限性在于,它只能处理数字值,而无法处理任何字符或字符串。因此我们必须先通过创建虚拟变量(dummy variables)或执行独热编码(one-hot encoding)将类别变量编码为整数。

在将类别属性转换为数字表示后,我们需要确定所有特征的数字范围,并将其调整到一个统一的比例。这是因为计算机在 0-1 的范围内分辨率要远大于其他更广泛的数据类型范围。数据的缩放可以通过归一化(将特征缩放至 0-1 的范围内)或者标准化(将特征缩放至其对应的高斯分布)实现。

在“汽车”数据集上进行数据转换的步骤如下:

    # 将类别列转换为虚拟变量,方便后续 ML 模型处理df_car['fueltype'] = df_car['fueltype'].map({'gas':0, 'diesel':1})df_car['aspiration'] = df_car['aspiration'].map({'std':0, 'turbo':1})df_car['doornumber'] = df_car['doornumber'].map({'four':0, 'two':1})df_car['enginelocation'] = df_car['enginelocation'].map({'front':0, 'rear':1})# 为拥有超过两种类别的列创建虚拟变量    for col in ['carbody', 'drivewheel', 'enginetype', 'cylindernumber', 'fuelsystem', 'Company_name']:df_car = pd.get_dummies(df_car, columns=[col], drop_first=True)       # 显示将所有类型数据列转换为 0-1 后的新数据 df_car.head()     # 将数据集分为训练与测试两部分    df_train, df_test = train_test_split(df_car, test_size = 0.15, random_state=44)# 将所有数字类别列转化为 0 或 1 from sklearn.preprocessing import MinMaxScalerscaler = MinMaxScaler()    df_train[list(df_train.columns)] = scaler.fit_transform(df_train)  # 取 price 列为因变量‘y’,其余数据为自变量‘x’   y_train = df_train.pop('price')X_train = df_train

注意在这里我们将数据分为两部分,一是用于算法训练,二是用于评估。在后续的分析中,我们会专注于训练数据。

特征提取

特征提取(Feature Extraction)是指从现有特征列表中选择子集,或通过各种降低维度算法来降低数据维度的过程。数据集维度则是该数据集的输入特征数量。

但是数据的维度越多(即输入的变量越多),数据集就越有可能代表该空间的某个非常稀疏且不具代表性的采样,这被称作是维度的诅咒

主要有两种方式:

* 特征选择:用于对数据集中现有特征的重要性进行排序,并剔除不重要的特征。
* 特征提取:用于将数据投影到一个较低维度的空间,但依然保留原始数据最重要的特征

特征提取 / 选取技巧的好处有:

  1. 降低欠拟合(underfitting)或过拟合(overfitting)
  2. 减少训练时间
  3. 提高准确率
  4. 改善数据可视化

特征提取示例:

def corr_heatmap(df, v):correlations = df[v].corr()     # Create color map ranging between two colors       cmap = sns.diverging_palette(220, 10, as_cmap=True)fig, ax = plt.subplots(figsize=(20,20))sns.heatmap(correlations, cmap=cmap, vmax=1.0, center=0, fmt='.2f',square=True, linewidths=.5, annot=True, cbar_kws={"shrink": .75})plt.show()            # 可视化相关矩阵以排除因变量     corr_heatmap(df_car, num_variable[:-1])# 丢弃高度相关的属性  df_car = df_car.drop(['citympg', 'curbweight', 'wheelbase', 'enginesize', 'carwidth'], axis=1)# Importing RFE and LinearRegression  from sklearn.feature_selection import RFEfrom sklearn.linear_model import LinearRegression# Running RFE with the output number of the variable equal to 10lm = LinearRegression()  lm.fit(X_train, y_train)               # Model_1    rfe = RFE(lm, 10)                      # running RFErfe = rfe.fit(X_train, y_train)   # Displaying the list of column with there rfe ranklist(zip(X_train.columns,rfe.support_,rfe.ranking_)) # taking a subset of column, that rfe has suggested important   col = X_train.columns[rfe.support_]        # Creating X_test dataframe with RFE selected variablesX_rfe = X_train[col]    lm.fit(X_rfe, y_train)              # Model_2

完成对训练数据集的特征选择之后,就可以开始训练模型了,本文例子中使用的是线性回归,因此不需要对算法进行任何预分析。我们使用矩阵对所得模型进行评估,回归问题的性能则是根据“均方误差”和“平均绝对误差”来计算的。

总结

以上都是解决机器学习问题的基本步骤,在搭建模型时,最重要并且最困难的通常都是清理预处理数据。而讽刺的是,应用算法和预测输出通常也就是几行代码而已,这部分可以说是模型构建中最简单的部分了。

如果喜欢这篇文章,欢迎在评论区留下你的见解或疑问,也可以关注原作者的领英和 Instagram

原文链接:

《Data Preparation Techniques and Its Importance in Machine Learning, by Data Science Whoopees》

数据准备技巧及其对机器学习的重要性相关推荐

  1. 1.机器学习的重要性

    通过了解机器学习为什么重要,你可以认识到其价值,认识到其包含的策略方法.开放性问题.同样,对机器学习价值的认识,有助于我们将其作为一个强大的信息处理工具,有助于我们专注挖掘那些实现其价值的具体方法. ...

  2. 数据科学+python+R+数据库+机器学习+(速查表)cheat sheets大全

    数据科学+python+R+数据库+机器学习+(速查表)cheat sheets大全 Learn, compete, hack and get hired! 学习.竞争.精进.996. 东西永远学不完 ...

  3. 成为数据科学家、人工智能和机器学习工程师的自学之路

    来源:大数据文摘 本文约2600字,建议阅读6分钟. 自学是一门需要自律和付出才能掌握的艺术. 时间和成本是人们在尝试学习数据科学,人工智能或机器学习时面临的重大阻碍.自学是一门需要自律和付出才能掌握 ...

  4. 自学是一门艺术:踏上数据科学、人工智能和机器学习的自学之路

    全文共3217字,预计学习时长9分钟 图源:unsplash 学习是最好的投资,在B站最大的作用都变成学习之后,人们在互联网上学习什么都不稀奇了.没错,数据科学.人工智能和机器学习也是可以自学的. 时 ...

  5. SEO数据监控技巧都有哪些?

    想要网站优化成果能够得到更好的效果,并且帮助优化人员制定更优质.精准的优化方案,所以就需要对网站优化的相关数据进行全面的了解,那么在网站优化中SEO数据信息中,有哪些可以监控呢? 一.SEO综合指标查 ...

  6. 【科普】一文把数据科学、人工智能与机器学习讲清楚

    目录 什么是数据科学? 什么是人工智能? 什么是机器学习? 数据科学.人工智能.机器学习的关系 数据科学.人工智能.机器学习的区别 数据科学.人工智能.机器学习工作 尽管"数据科学" ...

  7. boost::spirit模块实现允许调整模板数据的技巧结构作为融合序列以用于直接属性传播的测试程序

    boost::spirit模块实现允许调整模板数据的技巧结构作为融合序列以用于直接属性传播的测试程序 实现功能 C++实现代码 实现功能 boost::spirit模块实现允许调整模板数据的技巧结构作 ...

  8. 60个数据窗口技巧(转)

    60个数据窗口技巧 1.如何让存储文件目录的列,显示图片? 答:选择对应的column的display as picture属性为true 2.如何复制grid类型的所选择的行的数据到系统剪切板? 答 ...

  9. SYBASE数据导入技巧

    SYBASE数据导入技巧 1.可采用一个比较好的工具DBA,不过这个工具莫明其妙的导不进去数据,有些时候好用,有些时候不好用 2.采用另存为CSV,采用如下BCP语句导入: bcp  "IM ...

最新文章

  1. 本地打包Docker镜像上传至阿里云远程仓库(一站式脚本)
  2. 最新版elasticsearch的安装踩坑
  3. Flash Builder 找不到所需的 Adobe Flash Player
  4. 浅谈UML的概念和模型之UML九种图
  5. 1分钟了解相似性推荐
  6. 1704:baoge的洗漱难题[黄]
  7. ikbc机械键盘打字出现重复_双十一机械键盘优惠清单,阿米洛/ikbc/吉利鸭/杜咖/美商海盗船/雷神/Filco机械键盘推荐...
  8. 黄聪:php中utf-8模板获取GB2312编码页面传递URL中文编码转换方法
  9. 关于click事件在苹果手机上的阴影的解决方法和关于在安卓手机上的select的灰色背景色的解决...
  10. linux禁止客户端上传文件_linux 文件服务
  11. Spring AOP原理分析(三)-- AnnotationAwareAspectJAutoProxyCreator#initBeanFactory()源码
  12. 【C语言小游戏】走迷宫
  13. 机器学习7-逻辑斯蒂回归实现西瓜数据集2.0的二分类
  14. python经济统计_Python商务与经济统计学-方差分析
  15. 数据结构中的数学公式
  16. 一天、一个月、一年时间戳分别是多少?
  17. 系统稳定神器supervisor
  18. android悬浮窗口的实现
  19. 第100章 SQL函数 NULLIF
  20. Centos下启动和关闭MySQL

热门文章

  1. 搭建python selenium 自动化测试框架_Python3+Selenium2完整的自动化测试框架实现(二):IE和Chrome浏览器驱动配置...
  2. ‘%.2f‘ 与 ‘{:.2f}‘.format(w) 区别
  3. Cant find model en_core_web_sm
  4. numpy的shape用法(转http://blog.csdn.net/by_study/article/details/67633593)
  5. 智源社区2022新版体验:订阅讲座日历、关注顶尖专家、开启个人频道
  6. 《因果学习周刊》第5期:NeurIPS2021 因果发现最新进展
  7. 图灵2月书讯:书籍,不可分离的生命伴侣
  8. jQuery之父强烈推荐之jQuery实战
  9. 一步一步教您打印出自己大脑的3D模型
  10. matlab中中图像PSNR和SSIM的计算