python dataframe 计算上下两行的差值_用Python进行数据清洗!
导读:数据清洗是数据分析的必备环节,在进行分析过程中,会有很多不符合分析要求的数据,例如重复、错误、缺失、异常类数据。
Python资源共享群:626017123
01 重复值处理
数据录入过程、数据整合过程都可能会产生重复数据,直接删除是重复数据处理的主要方法。pandas提供查看、处理重复数据的方法duplicated和drop_duplicates。以如下数据为例:
>sample = pd.DataFrame({'id':[1,1,1,3,4,5],'name':['Bob','Bob','Mark','Miki','Sully','Rose'],'score':[99,99,87,77,77,np.nan],'group':[1,1,1,2,1,2],})>samplegroup id name score0 1 1 Bob 99.01 1 1 Bob 99.02 1 1 Mark 87.03 2 3 Miki 77.04 1 4 Sully 77.05 2 5 Rose NaN
发现重复数据通过duplicated方法完成,如下所示,可以通过该方法查看重复的数据。
>sample[sample.duplicated()]
group id name score
1 1 1 Bob 99.0
需要去重时,可drop_duplicates方法完成:
>sample.drop_duplicates()group id name score0 1 1 Bob 99.02 1 1 Mark 87.03 2 3 Miki 77.04 1 4 Sully 77.05 2 5 Rose NaN
drop_duplicates方法还可以按照某列去重,例如去除id列重复的所有记录:
>sample.drop_duplicates('id')group id name score0 1 1 Bob 99.03 2 3 Miki 77.04 1 4 Sully 77.05 2 5 Rose NaN
02 缺失值处理
缺失值是数据清洗中比较常见的问题,缺失值一般由NA表示,在处理缺失值时要遵循一定的原则。
首先,需要根据业务理解处理缺失值,弄清楚缺失值产生的原因是故意缺失还是随机缺失,再通过一些业务经验进行填补。一般来说当缺失值少于20%时,连续变量可以使用均值或中位数填补;分类变量不需要填补,单算一类即可,或者也可以用众数填补分类变量。
当缺失值处于20%-80%之间时,填补方法同上。另外每个有缺失值的变量可以生成一个指示哑变量,参与后续的建模。当缺失值多于80%时,每个有缺失值的变量生成一个指示哑变量,参与后续的建模,不使用原始变量。
在下图中展示了中位数填补缺失值和缺失值指示变量的生成过程。
▲图5-8:缺失值填补示例
Pandas提供了fillna方法用于替换缺失值数据,其功能类似于之前的replace方法,例如对于如下数据:
> samplegroup id name score0 1.0 1.0 Bob 99.01 1.0 1.0 Bob NaN2 NaN 1.0 Mark 87.03 2.0 3.0 Miki 77.04 1.0 4.0 Sully 77.05 NaN NaN NaN NaN
分步骤进行缺失值的查看和填补如下:
1. 查看缺失情况
在进行数据分析前,一般需要了解数据的缺失情况,在Python中可以构造一个lambda函数来查看缺失值,该lambda函数中,sum(col.isnull())表示当前列有多少缺失,col.size表示当前列总共多少行数据:
>sample.apply(lambda col:sum(col.isnull())/col.size)group 0.333333id 0.166667name 0.166667score 0.333333dtype: float64
2. 以指定值填补
pandas数据框提供了fillna方法完成对缺失值的填补,例如对sample表的列score填补缺失值,填补方法为均值:
>sample.score.fillna(sample.score.mean())0 99.01 85.02 87.03 77.04 77.05 85.0Name: score, dtype: float64
当然还可以以分位数等方法进行填补:
>sample.score.fillna(sample.score.median())0 99.01 82.02 87.03 77.04 77.05 82.0Name: score, dtype: float64
3. 缺失值指示变量
pandas数据框对象可以直接调用方法isnull产生缺失值指示变量,例如产生score变量的缺失值指示变量:
>sample.score.isnull()0 False1 True2 False3 False4 False5 TrueName: score, dtype: bool
若想转换为数值0,1型指示变量,可以使用apply方法,int表示将该列替换为int类型。
>sample.score.isnull().apply(int)
0 0
1 1
2 0
3 0
4 0
5 1
Name: score, dtype: int64
03 噪声值处理
噪声值指数据中有一个或几个数值与其他数值相比差异较大,又称为异常值、离群值(outlier)。
对于大部分的模型而言,噪声值会严重干扰模型的结果,并且使结论不真实或偏颇,如图5-9。需要在数据预处理的时候清除所以噪声值。噪声值的处理方法很多,对于单变量,常见的方法有盖帽法、分箱法;多变量的处理方法为聚类法。下面进行详细介绍:
▲图5-9:噪声值(异常值、离群值)示例:年龄数据,圆圈为噪声值
1. 盖帽法
盖帽法将某连续变量均值上下三倍标准差范围外的记录替换为均值上下三倍标准差值,即盖帽处理(图5-10)。
▲图5-10:盖帽法处理噪声值示例
Python中可自定义函数完成盖帽法。如下所示,参数x表示一个pd.Series列,quantile指盖帽的范围区间,默认凡小于百分之1分位数和大于百分之99分位数的值将会被百分之1分位数和百分之99分位数替代:
>def cap(x,quantile=[0.01,0.99]):"""盖帽法处理异常值Args:x:pd.Series列,连续变量quantile:指定盖帽法的上下分位数范围"""
# 生成分位数Q01,Q99=x.quantile(quantile).values.tolist()# 替换异常值为指定的分位数if Q01 > x.min():x = x.copy()x.loc[x<Q01] = Q01if Q99 < x.max():x = x.copy()x.loc[x>Q99] = Q99return(x)
现生成一组服从正态分布的随机数,sample.hist表示产生直方图,更多绘图方法会在下一章节进行讲解:
>sample = pd.DataFrame({‘normal’:np.random.randn(1000)})
>sample.hist(bins=50)
▲图5-11:未处理噪声时的变量直方图
对pandas数据框所有列进行盖帽法转换,可以以如下写法,从直方图对比可以看出盖帽后极端值频数的变化。
>new = sample.apply(cap,quantile=[0.01,0.99])
>new.hist(bins=50)
▲图5-12:处理完噪声后的变量直方图
2. 分箱法
分箱法通过考察数据的“近邻”来光滑有序数据的值。有序值分布到一些桶或箱中。
分箱法包括等深分箱:每个分箱中的样本量一致;等宽分箱:每个分箱中的取值范围一致。直方图其实首先对数据进行了等宽分箱,再计算频数画图。
比如价格排序后数据为:4、8、15、21、21、24、25、28、34
将其划分为(等深)箱:
箱1:4、8、15
箱2:21、21、24
箱3:25、28、34
将其划分为(等宽)箱:
箱1:4、8
箱2:15、21、21、24
箱3:25、28、34
分箱法将异常数据包含在了箱子中,在进行建模的时候,不直接进行到模型中,因而可以达到处理异常值的目的。
pandas的qcut函数提供了分箱的实现方法,下面介绍如何具体实现。
等宽分箱:qcut函数可以直接进行等宽分箱,此时需要的待分箱的列和分箱个数两个参数,如下所示,sample数据的int列为从10个服从标准正态分布的随机数:
>sample =pd.DataFrame({'normal':np.random.randn(10)})>samplenormal0 0.0651081 -0.5970312 0.6354323 -0.4919304 -1.8940075 1.6236846 1.7237117 -0.2259498 -0.2136859 -0.309789
现分为5箱,可以看到,结果是按照宽度分为5份,下限中,cut函数自动选择小于列最小值一个数值作为下限,最大值为上限,等分为五分。结果产生一个Categories类的列,类似于R中的factor,表示分类变量列。
此外弱数据存在缺失,缺失值将在分箱后将继续保持缺失,如下所示:
>pd.cut(sample.normal,5)0 (-0.447, 0.277]1 (-1.17, -0.447]2 (0.277, 1.0]3 (-1.17, -0.447]4 (-1.898, -1.17]5 (1.0, 1.724]6 (1.0, 1.724]7 (-0.447, 0.277]8 (-0.447, 0.277]9 (-0.447, 0.277]Name: normal, dtype: categoryCategories (5, interval[float64]): [(-1.898, -1.17] < (-1.17, -0.447] < (-0.447, 0.277] < (0.277, 1.0] < (1.0, 1.724]]
这里也可以使用labels参数指定分箱后各个水平的标签,如下所示,此时相应区间值被标签值替代:
> pd.cut(sample.normal,bins=5,labels=[1,2,3,4,5])0 11 12 23 24 35 36 47 48 59 5Name: normal, dtype: categoryCategories (5, int64): [1 < 2 < 3 < 4 < 5]
标签除了可以设定为数值,也可以设定为字符,如下所示,将数据等宽分为两箱,标签为‘bad’,‘good’:
>pd.cut(sample.normal,bins=2,labels=['bad','good'])0 bad1 bad2 bad3 bad4 bad5 good6 good7 good8 good9 goodName: normal, dtype: categoryCategories (2, object): [bad < good]
等深分箱:等深分箱中,各个箱的宽度可能不一,但频数是几乎相等的,所以可以采用数据的分位数来进行分箱。依旧以之前的sample数据为例,现进行等深度分2箱,首先找到2箱的分位数:
>sample.normal.quantile([0,0.5,1])
0.0 0.0
0.5 4.5
1.0 9.0
Name: normal, dtype: float64
在bins参数中设定分位数区间,如下所示完成分箱,include_lowest=True参数表示包含边界最小值包含数据的最小值:
>pd.cut(sample.normal,bins=sample.normal.
quantile([0,0.5,1]),include_lowest=True)0 [0, 4.5]1 [0, 4.5]2 [0, 4.5]3 [0, 4.5]4 [0, 4.5]5 (4.5, 9]6 (4.5, 9]7 (4.5, 9]8 (4.5, 9]9 (4.5, 9]Name: normal, dtype: categoryCategories (2, object): [[0, 4.5] < (4.5, 9)]
此外也可以加入label参数指定标签,如下所示:
>pd.cut(sample.normal,bins=sample.normal.
quantile([0,0.5,1]),include_lowest=True)0 bad1 bad2 bad3 bad4 bad5 good6 good7 good8 good9 goodName: normal, dtype: categoryCategories (2, object): [bad < good]
3. 多变量异常值处理-聚类法
通过快速聚类法将数据对象分组成为多个簇,在同一个簇中的对象具有较高的相似度,而不同的簇之间的对象差别较大。聚类分析可以挖掘孤立点以发现噪声数据,因为噪声本身就是孤立点。
本案例考虑两个变量income和age,散点图如图5-13所示,其中A、B表示异常值:
▲图5-13:多变量异常值示例
对于聚类方法处理异常值,其步骤如下所示:
输入:数据集S(包括N条记录,属性集D:{年龄、收入}),一条记录为一个数据点,一条记录上的每个属性上的值为一个数据单元格。数据集S有N×D个数据单元格,其中某些数据单元格是噪声数据。
输出:孤立数据点如图所示。孤立点A是我们认为它是噪声数据,很明显它的噪声属性是收入,通过对收入变量使用盖帽法可以剔除A。
另外,数据点B也是一个噪声数据,但是很难判定它在哪个属性上的数据出现错误。这种情况下只可以使用多变量方法进行处理。
python dataframe 计算上下两行的差值_用Python进行数据清洗!相关推荐
- grafana计算不同时间的差值_大数据时代!如何基于Spark Streaming构建实时计算平台...
随着互联网技术的迅速发展,用户对于数据处理的时效性.准确性与稳定性要求越来越高,如何构建一个稳定易用并提供齐备的监控与预警功能的实时计算平台也成了很多公司一个很大的挑战. 自2015年携程实时计算平台 ...
- pandas 学习 第13篇:计算元素之间的差值、比值
对于数据框,可以按照行或列,计算相邻两个元素的之间的差值或变化百分比, 有如下数据框: >>> df = pd.DataFrame({'a': [1, 2, 3, 4, 5, 6], ...
- python代码大全p-基于python实现计算两组数据P值
我们在做A/B试验评估的时候需要借助p_value,这篇文章记录如何利用python计算两组数据的显著性. 一.代码 # TTest.py # -*- coding: utf-8 -*- ''' # ...
- 获取数组中元素值为偶数的累加和与元素值为奇数的累加和,并计算他们之间的差值
/*** 1.获取数组中元素值为偶数的累加和与元素值为奇数的累加和,并计算他们之间的差值* 1.定义int getNum(int[] arr)静态方法,该方法要求完成* 1.1 获取指定数组arr中元 ...
- python Dataframe 根据某一列的值来删除多行
python Dataframe 根据某一列的值来删除多行 在Dataframe中,有的时候想根据某一列值来删除. 方法一:你可以做负isin()索引: In [57]: df Out[57]:a b ...
- Mysql和 ClickHouse计算时间函数的差值的区别(dateDiff和TIMESTAMPDIFF)
TIMESTAMPDIFF函数和dateDiff函数分别是Mysql和 ClickHouse数据库的计算两个日期差值的函数,在项目中踩过坑,所以在此记录一下有共同点和异同点,避免今后继续踩坑. 注:这 ...
- python 计算时间、日期差值类
环境:win10+python3x V:1.0 简单实现了一下功能本地测试可用,记录下次接着二次开发用 import datetime import re class TimeDifferenceC( ...
- python计算日期间的差值,python 计算时间、日期差值类
环境:win10+python3x V:1.0 简单实现了一下功能本地测试可用,记录下次接着二次开发用 import datetime import re class TimeDifferenceC( ...
- python+opencv 计算图片的感知hash值,来计算汉明距离,简单的找相似图片
感知哈希算法是一类算法的总称,包括aHash.pHash.dHash.顾名思义,感知哈希不是以严格的方式计算Hash值,而是以更加相对的方式计算哈希值,因为"相似"与否,就是一种相 ...
最新文章
- unity课设小游戏_Unity制作20个迷你小游戏实例训练视频教程
- SQL的优化和注意事项
- mysql 子查询概念_聊聊MySQL的子查询
- 《长安十二时辰》背后的文娱大脑:如何提升爆款的确定性?
- 《C#线程参考手册》读书笔记(三):.NET中的线程池
- 动态填充html select tag的options
- Network in Network 算法解析
- vue部门结构图_Vue组织架构图组件
- LTE学习笔记--LTE整体架构和协议架构概述
- Delta并联机构重力补偿分析
- 无线网为何显示无法上网络连接服务器,wlan显示已连接不可上网怎么办_wlan显示已连接但无法访问互联网怎么解决...
- 全球5G无线接入网络(RAN)行业调研及趋势分析报告
- 黑莓android系统,黑莓Passport的手机系统是什么?能升级安卓5.0吗?
- 猫耳FM日期窗口实现
- 茶叶蛋大冒险全部攻略
- tb6600 两相四线步进电机相关参数计算关系
- 使用函数求余弦函数的近似值 (15 分)
- 三分钟极速搭建LP框架{{1019}}
- 震撼来袭!剪映专业版出内测了!最新功能抢先使用!
- 教程:这两个小妙招手把手教会你白底图片怎么抠图
热门文章
- GNN综述:从deepwalk到GraphSAGE,GCN,GAT
- 「苹果牌」电动车要来了:最早明年见,还带着突破性电池技术
- Python 3.9来了!这十个新特性值得关注
- 别再SOTA了,那叫“微调”!Science发文炮轰论文灌水
- 16岁日本神童打造日版「健康码」,追踪用户行动数据抗击疫情
- 微盟创始人孙涛勇回应员工删库;字节跳动推“头条搜索”独立 App;C++ 20 规范完成| 极客头条...
- 为什么工厂模式可以解耦?(二)
- 汇编语言的div指令 ax dx bx
- 目标检测Loss大盘点
- 数字图像基本处理算法小结