在知乎上也看到了这个,不知道哪个是原创,这里粘上链接

https://zhuanlan.zhihu.com/p/51131210

前言

数据预处理的重要性?

熟悉数据挖掘和机器学习的小伙伴们都知道,数据处理相关的工作时间占据了整个项目的70%以上数据的质量,直接决定了模型的预测和泛化能力的好坏。它涉及很多因素,包括:准确性、完整性、一致性、时效性、可信性和解释性。而在真实数据中,我们拿到的数据可能包含了大量的缺失值,大量的噪声,也可能因为人工录入的错误数据导致有异常点存在,非常不利于算法模型的训练。数据清洗的结果是对各种脏数据进行对应方式的处理,得到标准的、干净的、连续的数据,提供给数据统计、数据挖掘等使用

常见的数据预处理的方法有哪些?

数据预处理的主要步骤分为:数据清理、数据集成、数据规约和数据变换。本文将从这四个方面详细的介绍具体的方法。如果在一个项目中,你在这几个方面的数据处理做的都很不错,对于之后的建模具有极大的帮助,缩短开发周期。

一、数据清理

数据清理( data cleaning ) 的主要思想是通过填补缺失值、光滑噪声数据,平滑或删除离群点,并解决数据的不一致性来“清理“数据。如果用户认为数据是脏乱的,他们不太会相信基于这些数据的挖掘结果,即输出的结果是不可靠的。

1、缺失值的处理

由于现实世界中,获取信息和数据的过程中,会存在各类的原因导致数据丢失和空缺。针对这些缺失值的处理方法,主要是基于变量的分布特性和变量的重要性(信息量和预测能力)采用不同的方法。主要分为以下几种:

  • 删除变量: 若变量的缺失值占比较高(大于80%),覆盖率较低,且重要性较低,可以直接将变量删除;
  • 定值填充: 工程中常见用 -9999 进行替代;
  • 统计量填充: 若缺失值占比较低(小于95%)且重要性较低,则根据数据分布的情况进行填充。对于数据符合均匀分布,用该变量的均值填补缺失,对于数据存在倾斜分布的情况,采用中位数进行填补;
  • 插值法填充: 包括随机插值,多重差补法,热平台插补,拉格朗日插值,牛顿插值等;
  • 模型填充: 使用回归、贝叶斯、随机森林、决策树等模型对缺失数据进行预测并填充;
  • 哑变量填充: 若变量是离散型,且不同值较少,可转换成哑变量,例如性别 SEX 变量,存在 male,female,NA 三个不同的值,可将该列转换成 IS_SEX_MALE, IS_SEX_FEMALE, IS_SEX_NA 。若某个变量存在十几个不同的值,可根据每个值的频数,将频数较小的值归为一类 'other' ,降低维度。此做法可最大化保留变量的信息。

总结来看,常用的做法是:先用 pandas.isnull.sum() 检测出变量的缺失比例,考虑删除或者填充,若需要填充的变量是连续型,一般采用均值法和随机差值进行填充,若变量是离散型,通常采用中位数或哑变量进行填充。

注意: 若对变量进行分箱离散化,一般会将缺失值单独作为一个箱子(离散变量的一个值)。

2、离群点(异常值)处理

异常值是数据分布的常态,处于特定分布区域或范围之外的数据通常被定义为异常或噪声。异常分为两种: “伪异常” ,由于特定的业务运营动作产生,是正常反应业务的状态,而不是数据本身的异常; “真异常” ,不是由于特定的业务运营动作产生,而是数据本身分布异常,即离群点。主要有以下检测离群点的方法:

  • 简单统计分析: 根据箱线图、各分位点判断是否存在异常,例如 pandas 的 describe 函数可以快速发现异常值;
  • 3σ3 \sigma3σ 原则: 若数据存在正态分布,偏离均值的 3σ3 \sigma3σ 之外,通常定义 P(∣x−μ∣>3σ)≤0.003P(|x - \mu | \gt 3 \sigma) \leq 0.003P(∣x−μ∣>3σ)≤0.003 范围内的点为离群点;
  • 基于绝对偏差中位数(MAD): 这是一种稳健对抗离群数据的距离值方法,采用计算各观测值与平均值的距离总和的方法。放大了离群值的影响;
  • 基于距离: 通过定义对象之间的临近性度量,根据距离判断异常对象是否远离其他对象,缺点是计算复杂度较高,不适用于大数据集和存在不同密度区域的数据集;
  • 基于密度: 离群点的局部密度显著低于大部分近邻点,适用于非均匀的数据集;
  • 基于聚类: 利用聚类算法,丢弃远离其他簇的小簇。

总结来看,在数据处理阶段将离群点作为影响数据质量的异常点考虑,而不是作为通常所说的异常检测目标点,因而最为简单直观的方法,就是结合箱线图和MAD的统计方法判断变量的离群点。

具体的处理手段有:

  • 根据异常点的数量和影响,考虑是否将该条记录删除,此做法信息损失较多;
  • 若对数据做了 log-scale 对数变换后消除了异常值,则此方法生效,且不损失信息;
  • 平均值或中位数替代异常点,简单高效,此方法信息的损失较少;
  • 在训练树模型时,树模型对离群点的鲁棒性较高,无信息损失,不影响模型训练效果。

3、噪声处理

噪声是变量的随机误差和方差,是观测点和真实点之间的误差,即 obs=xEobs = x \mathcal{E}obs=xE 。通常的处理办法:对数据进行分箱操作,等频或等宽分箱,然后用每个箱的平均数,中位数或者边界值(不同数据分布,处理方法不同)代替箱中所有的数,起到平滑数据的作用。另外一种做法是,建立该变量和预测变量的回归模型,根据回归系数和预测变量,反解出自变量的近似值。

二、数据集成

数据分析任务多半涉及数据集成。数据集成将多个数据源中的数据结合、存放在一个一致的数据存储,如数据仓库中。这些源可能包括多个数据库、数据方或一般文件。

三、数据规约

数据归约技术可以用来得到数据集的规约表示,它小得多,但仍接近地保持原数据的完整性。这样,在规约后的数据集上挖掘将更有效,并产生相同(或几乎相同)的分析结果。一般有如下策略:

1、维度规约

用于数据分析的数据可能包含数以百计的属性,其中大部分属性与挖掘任务不相关,是冗余的。维度规约通过删除不相关的属性,来减少数据量,并保证信息的损失最小。

属性子集选择: 目标是找出最小属性集,使得数据类的概率分布尽可能地接近使用所有属性的原分布。在压缩的属性集上挖掘还有其它的优点。它减少了出现在发现模式上的属性的数目,使得模式更易于理解。

  • 逐步向前选择: 该过程由空属性集开始,选择原属性集中最好的属性,并将它添加到该集合中。在其后的每一次迭代,将原属性集剩下的属性中的最好的属性添加到该集合中;
  • 逐步向后删除: 该过程由整个属性集开始。在每一步,删除掉尚在属性集中的最坏属性;
  • 向前选择和向后删除的结合: 向前选择和向后删除方法可以结合在一起,每一步选择一个最好的属性,并在剩余属性中删除一个最坏的属性。

python 机器学习库 scikit-learn 中的递归特征消除算法 Recursive feature elimination (RFE) ,就是利用这样的思想进行特征子集筛选的,一般考虑建立 SVM 或回归模型。

单变量重要性: 分析单变量和目标变量的相关性,删除预测能力较低的变量。这种方法不同于属性子集选择,通常从统计学和信息的角度去分析。

  • pearson 相关系数和卡方检验: 分析目标变量和单变量的相关性;
  • 回归系数: 训练线性回归或逻辑回归,提取每个变量的决定性系数,进行重要性排序;
  • 树模型的 Gini 指数: 训练决策树模型,提取每个变量的重要度,即 Gini 指数进行排序;
  • Lasso 正则化: 训练回归模型时,加入 L1 正则化参数,将特征向量稀疏化;
  • IV 指标: 风控模型中,通常求解每个变量的 IV 值,来定义变量的重要性程度,一般将阈值设定在 0.02 以上。

以上提到的方法,没有讲解具体的理论知识和实现方法,需要大家自己去熟悉掌握。通常的做法是根据业务需求来定,如果基于业务的用户或商品特征,需要较多的解释性,考虑采用统计上的一些方法,如变量的分布曲线,直方图等,再计算相关性指标,最后去考虑一些模型方法。如果建模需要,则通常采用模型方法去筛选特征,如果用一些更为复杂的 GBDT ,DNN 等模型,建议不做特征选择,而做特征交叉。

2、维度变换

维度变换是将现有数据降低到更小的维度,尽量保证数据信息的完整性。接下来将介绍常用的几种有损失的维度变换方法,将大大地提高实践中建模的效率:

  • 主成分分析(PCA)和因子分析(FA): PCA 通过空间映射的方式,将当前维度映射到更低的维度,使得每个变量在新空间的方差最大。FA 则是找到当前特征向量的公因子(维度更小),用公因子的线性组合来描述当前的特征向量;
  • 奇异值分解(SVD): SVD 的降维可解释性较低,且计算量比 PCA 大,一般用在稀疏矩阵上降维,例如图片压缩,推荐系统;
  • 聚类: 将某一类具有相似性的特征聚到单个变量,从而大大降低维度;
  • 线性组合: 将多个变量做线性回归,根据每个变量的决定性系数,赋予变量权重,可将该类变量根据权重组合成一个变量;
  • 流行学习: 流行学习中一些复杂的非线性方法,可参考 skearn:LLE Example 。

四、数据变换

数据变换包括对数据进行规范化,离散化,稀疏化处理,达到适用于挖掘的目的。

1、规范化处理

数据中不同特征的量纲可能不一致,数值间的差别可能很大,不进行处理可能会影响到数据分析的结果,因此,需要对数据按照一定比例进行缩放,使之落在一个特定的区域,便于进行综合分析。特别是基于距离的挖掘方法,聚类,KNNSVM 一定要做规范化处理

  • 最大 - 最小规范化: 将数据映射到 [0,1] 区间, xnew=x−xminxmax−xminx_{new} = \frac{x - x_{min}}{x_{max} - x_{min}}xnew​=xmax​−xmin​x−xmin​​ ;
  • Z-Score 标准化: 处理后的数据均值为 0 ,方差为 1 ,xnew=x−x¯σx_{new} = \frac{x - \overline{x}}{\sigma}xnew​=σx−x​ ;
  • Log 变换: 在时间序列数据中,对于数据量级相差较大的变量,通常做 Log 函数的变换,xnew=logxx_{new} = logxxnew​=logx 。

2、离散化处理

数据离散化是指将连续的数据进行分段,使其变为一段段离散化的区间。分段的原则有基于等距离、等频率或优化的方法。数据离散化的原因主要有以下几点:

  • 模型需要: 比如决策树、朴素贝叶斯等算法,都是基于离散型的数据展开的。如果要使用该类算法,必须将连续型的数据进行离散化。有效的离散化能减小算法的时间和空间开销,提高系统对样本的分类聚类能力和抗噪声能力
  • 离散化的特征相对于连续型特征更易理解;
  • 可以有效的克服数据中隐藏的缺陷,使模型结果更加稳定。

等频法: 使得每个箱中的样本数量相等,例如总样本 N=100 ,分成 k=5 个箱,则分箱原则是保证落入每个箱的样本量 n=20 。

等宽法: 使得属性的箱宽度相等,例如年龄变量(0-100之间),可分成 [0,20][20,40][40,60][60,80][80,100]五个等宽的箱。

聚类法: 根据聚类出来的簇,每个簇中的数据为一个箱,簇的数量由模型给定。

3、稀疏化处理

针对离散型且标称变量,无法进行有序的 LabelEncoder 时,通常考虑将变量做 0,1 哑变量的稀疏化处理,例如动物类型变量中含有猫,狗,猪,羊四个不同值,将该变量转换成 is_猪 , is_猫 , is_狗 , is_羊 四个哑变量。若是变量的不同值较多,则根据频数,将出现次数较少的值统一归为一类 'rare' 。稀疏化处理既有利于模型快速收敛,又能提升模型的抗噪能力

五、总结

以上介绍了数据预处理中会用到的大部分方法和技术,完全适用于各种业务场景,并且对于实践建模会有大幅度提升。以上方法的代码实现,均可在 python 的 pandas 和 sklearn 中完成。大家可根据需要去官网学习,网上资料也很多,在这里只提供了方法和经验上的借鉴,希望每个认真学习巩固的同学都能得到提升。
pandas 官方文档: https://pandas.pydata.org/
scikit-learn 官方文档: https://scikit-learn.org/stable/

机器学习中数据预处理方法相关推荐

  1. 数据挖掘中数据预处理方法_数据挖掘中的数据预处理

    数据挖掘中数据预处理方法 In the previous article, we have discussed the Data Exploration with which we have star ...

  2. 机器学习中数据预处理——标准化/归一化方法(scaler)

    由于工作问题比较忙,有两周没有总结一下工作学习中遇到的问题. 这篇主要是关于机器学习中的数据预处理的scaler变化. 工作中遇到的问题是:流量预测问题,拿到的数据差距非常大,凌晨的通话流量很少几乎为 ...

  3. 机器学习中数据预处理的方式

    数据标量化 如果需要学习的不同的数据标签之间的量纲差距太大,那么需要进行数据标量化操作,有3个主要的优势: 可以使梯度下降更快 躲避"NaN陷阱",数据中有些数值可能超过了计算机的 ...

  4. sklearn中常用的数据预处理方法

    常见的数据预处理方法,以下通过sklearn的preprocessing模块来介绍; 1. 标准化(Standardization or Mean Removal and Variance Scali ...

  5. sklearn中的数据预处理方法学习汇总

    文章目录 sklearn中的数据预处理方法学习 一.标准化 Z-score标准化 Z-score标准化学习 Z-score标准化实现 Min-max标准化 MaxAbs标准化 二.非线性转换 映射到均 ...

  6. python数据预处理的方法_python中常用的九种数据预处理方法

    python中常用的九种预处理方法分享 本文总结的是我们大家在python中常见的数据预处理方法,以下通过sklearn的preprocessing模块来介绍; 1. 标准化(Standardizat ...

  7. python常用的数据预处理方法

    2019独角兽企业重金招聘Python工程师标准>>> 转载自:http://2hwp.com/2016/02/03/data-preprocessing/ 常见的数据预处理方法,以 ...

  8. 数据挖掘导论 复习一(介绍+数据预处理方法+定性归纳)

    数据挖掘=数据库+机器学习 算法 经验 模型 机器学习任务:分类.回归.聚类(KMeans.DCSAN.层次聚类).数据降维.数据预处理 常用分类器:KNN.贝叶斯. 逻辑回归 .决策树.随机森林 本 ...

  9. 学习weka(7):weka数据预处理方法

    1.前言 weka 数据预处理阶段全部在 filter 上: 下面把一些常见的机器学习数据与处理方法处理说一下(下面所有实例都是在 Explorer 模块上进行的). 2.数据预处理方法 可以看到其 ...

最新文章

  1. .NET平台开源项目速览(11)KwCombinatorics排列组合使用案例(1)
  2. 敏捷需求分析及深度提升(广州 2014.1.11)- 活动报道
  3. ​EMC存储产品介绍分析(二):大数据利器Isilon (2)
  4. uni-app 获取手机状态栏高度
  5. 箴言录2014年4月19日
  6. [JSOI2010] 连通数
  7. DELMIA人机工程 ---- 二次开发 第一篇:开发指南
  8. mybatipse 下载_哇塞!可以免费下载某度文档的doc格式啦
  9. 石家庄地铁选站系统进度报告
  10. windows快捷健总结
  11. 通过检查table_locks_waited和table_locks_immediate状态变量来分析系统上的表锁定争夺
  12. Win32:三菱FX3U/FX5U读写软元件方法和注意事项
  13. 《神经网络与深度学习》习题答案
  14. 阴历转阳历java_GitHub - opprime/calendarist: 一个可实现阳历、阴历、干支历间相互转换的JAVA工具...
  15. 十五万左右纯电SUV怎么选?奇瑞大蚂蚁是真香
  16. 腾讯新闻php面试题,腾讯PHP面试题及参考答案
  17. 阿里云免费教你使用营销引擎
  18. 【新书推荐】【2019.07】第二曲线创新(混沌大学首部创新必修教科书 混沌大学创办人李善友八年磨一剑全新力作)...
  19. 900亿的分众传媒危险了?
  20. maven依赖c3p0_java – Maven无法解析C3P0依赖

热门文章

  1. com.aliyun.oss.ClientException:UnknownHost
  2. HBuilder-网页上[更多]菜单制作
  3. C#WinForms开发追梦打字的教程
  4. 钛灵市场联袂15家AI企业,发布短视频全场景AI解决方案
  5. recv() 错误处理 EAGAIN
  6. Express Handlebar Error:You must pass a string or Handlebars AST to Handlebars.conpile
  7. 图像查看软软件XnView
  8. 高通艾和志:魏牌、毫末和高通是业内最强组合
  9. python编程求平均值_Python编程求平均值的两种方法是?
  10. 基于pytorch+transformers的车牌识别