我正在从网上阅读一些自动天气数据。 观察每5分钟发生一次,并编译成每个气象站的月度文件。 一旦我完成了解析文件,DataFrame看起来像这样:

Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress

Date

2001-01-01 00:00:00  KPDX          0           0     4       3        0        0     30.31

2001-01-01 00:05:00  KPDX          0           0     4       3        0        0     30.30

2001-01-01 00:10:00  KPDX          0           0     4       3        4       80     30.30

2001-01-01 00:15:00  KPDX          0           0     3       2        5       90     30.30

2001-01-01 00:20:00  KPDX          0           0     3       2       10      110     30.28

我遇到的问题是,有时科学家会回过头来纠正观察结果 - 不是通过编辑错误的行,而是通过在文件的末尾附加一个重复的行。 这种情况的简单示例如下所示:

import pandas

import datetime

startdate = datetime.datetime(2001, 1, 1, 0, 0)

enddate = datetime.datetime(2001, 1, 1, 5, 0)

index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')

data1 = {'A' : range(6), 'B' : range(6)}

data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}

df1 = pandas.DataFrame(data=data1, index=index)

df2 = pandas.DataFrame(data=data2, index=index[:3])

df3 = df2.append(df1)

df3

A   B

2001-01-01 00:00:00   20 -50

2001-01-01 01:00:00  -30  60

2001-01-01 02:00:00   40 -70

2001-01-01 03:00:00    3   3

2001-01-01 04:00:00    4   4

2001-01-01 05:00:00    5   5

2001-01-01 00:00:00    0   0

2001-01-01 01:00:00    1   1

2001-01-01 02:00:00    2   2

所以我需要df3才能成为:

A   B

2001-01-01 00:00:00    0   0

2001-01-01 01:00:00    1   1

2001-01-01 02:00:00    2   2

2001-01-01 03:00:00    3   3

2001-01-01 04:00:00    4   4

2001-01-01 05:00:00    5   5

我认为添加一列行号(df3['rownum'] = range(df3.shape[0]))可以帮助我为DatetimeIndex的任何值选择最底部的行,但我仍然坚持找出group_by或pivot(或 ???)使这项工作的陈述。

另一种获取重复的方法是在夜晚将时钟设置为夏令时时间的小时数据:凌晨1点,2点,3点,2点,3点......

我建议在Pandas Index本身上使用重复的方法:

df3 = df3.loc[~df3.index.duplicated(keep='first')]

虽然所有其他方法都有效,但目前接受的答案是迄今为止提供的示例中性能最差的答案。此外,虽然groupby方法的性能稍差,但我发现重复的方法更具可读性。

使用提供的示例数据:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')

1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()

1000 loops, best of 3: 580 μs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]

1000 loops, best of 3: 307 μs per loop

请注意,您可以通过更改keep参数来保留最后一个元素。

还应该注意,此方法也适用于MultiIndex(使用保罗示例中指定的df1):

>>> %timeit df1.groupby(level=df1.index.names).last()

1000 loops, best of 3: 771 μs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]

1000 loops, best of 3: 365 μs per loop

My original answer, which is now outdated, kept for reference.

一个简单的解决方案是使用drop_duplicates

df4 = df3.drop_duplicates(subset='rownum', keep='last')

对我来说,这在大型数据集上运行得很快。

这要求'rownum'是具有重复的列。在修改过的例子中,'rownum'没有重复,因此没有任何东西被消除。我们真正想要的是将'cols'设置为索引。我没有找到告诉drop_duplicates只考虑索引的方法。

这是一个解决方案,它将索引添加为数据框列,删除重复项,然后删除新列:

df3 = df3.reset_index().drop_duplicates(subset='index', keep='last').set_index('index')

如果你想按正确的顺序恢复,只需在数据帧上调用sort即可。

df3 = df3.sort()

另一个变体是:df.reset_index().drop_duplicates(cols=index,take_last=True).set_index(index)

虽然此方法确实有效,但它也会创建DataFrame的两个临时副本,并且与使用建议作为备选答案的重复索引或groupby方法相比,其性能明显较低。

如果索引是MultiIndex,则reset_index()会添加列level_0,level_1等。如果您的索引具有名称,则将使用该名称来代替"index"标签。这使得这对于任何DataFrame来说都不仅仅是单线程。 index_label = getattr(df.index, names, getattr(df.index, name, index))然后cols=index_label然后set_index(index_labels),甚至这不是万无一失的(不适用于未命名的多索引)。

将索引移动到列,清除重复项并重置索引非常棒,这正是我所需要的!

给定idx = df.index.name or index,也可以df2 = df.reset_index(); df2.drop_duplicates(idx, inplace=True); df2.set_index(idx, inplace=True)来避免中间副本(由于inplace=True)

天啊。这其实很简单!

grouped = df3.groupby(level=0)

df4 = grouped.last()

df4

A   B  rownum

2001-01-01 00:00:00   0   0       6

2001-01-01 01:00:00   1   1       7

2001-01-01 02:00:00   2   2       8

2001-01-01 03:00:00   3   3       3

2001-01-01 04:00:00   4   4       4

2001-01-01 05:00:00   5   5       5

跟进编辑2013-10-29

在我有一个相当复杂的MultiIndex的情况下,我认为我更喜欢groupby方法。这是后人的简单例子:

import numpy as np

import pandas

# fake index

idx = pandas.MultiIndex.from_tuples([('a', letter) for letter in list('abcde')])

# random data + naming the index levels

df1 = pandas.DataFrame(np.random.normal(size=(5,2)), index=idx, columns=['colA', 'colB'])

df1.index.names = ['iA', 'iB']

# artificially append some duplicate data

df1 = df1.append(df1.select(lambda idx: idx[1] in ['c', 'e']))

df1

#           colA      colB

#iA iB

#a  a  -1.297535  0.691787

#   b  -1.688411  0.404430

#   c   0.275806 -0.078871

#   d  -0.509815 -0.220326

#   e  -0.066680  0.607233

#   c   0.275806 -0.078871  #

#   e  -0.066680  0.607233  #

这是重要的部分

# group the data, using df1.index.names tells pandas to look at the entire index

groups = df1.groupby(level=df1.index.names)

groups.last() # or .first()

#           colA      colB

#iA iB

#a  a  -1.297535  0.691787

#   b  -1.688411  0.404430

#   c   0.275806 -0.078871

#   d  -0.509815 -0.220326

#   e  -0.066680  0.607233

如果他们有名字,否则(如果一个名字是无),如果有2个级别df1.groupby(level=[0,1]).last(),则说level=[0,1]将起作用。这应该是Pandas的一部分,作为drop_duplicates的补充

@dashesy是的。使用df.index.names只是按索引的所有级别进行分组的简单方法。

很好的解决方案,谢谢!我还要补充说,这可以在xarray中处理重复的DateTime索引以及使ds.resample和ds.groupby操作失败

我之前评论的修正案:只要您将grouped = df3.groupby(level=0)更改为grouped = df3.groupby(dim=time)或任何包含重复项的维度,它就可以在xarray中运行

不幸的是,我不认为Pandas允许人们从指数中删除重复数据。我建议如下:

df3 = df3.reset_index() # makes date column part of your data

df3.columns = ['timestamp','A','B','rownum'] # set names

df3 = df3.drop_duplicates('timestamp',take_last=True).set_index('timestamp') #done!

删除重复项(保持第一)

idx = np.unique( df.index.values, return_index = True )[1]

df = df.iloc[idx]

删除重复项(保留最后)

df = df[::-1]

df = df.iloc[ np.unique( df.index.values, return_index = True )[1] ]

测试:使用OP数据进行10k循环

numpy method - 3.03 seconds

df.loc[~df.index.duplicated(keep='first')] - 4.43 seconds

df.groupby(df.index).first() - 21 seconds

reset_index() method - 29 seconds

如果像我这样的人喜欢使用pandas点表示法(如管道)进行可链接数据操作,那么以下内容可能会有用:

df3 = df3.query('~index.duplicated()')

这样可以链接这样的语句:

df3.assign(C=2).query('~index.duplicated()').mean()

我尝试了这个,但无法让它工作..我得到一个这样的错误:TypeError: Series objects are mutable, thus they cannot be hashed ..这实际上适合你吗?

python dataframe去掉索引_关于python:删除具有重复索引的行(Pandas DataFrame和TimeSeries)...相关推荐

  1. python字符串去掉空行_从python中的字符串中删除空格

    python字符串去掉空行 如何在python中删除字符串中的空格 (How to remove whitespaces in a string in python) str.lstrip()str. ...

  2. mysql 删除重复索引_如何检查mysql的重复索引

    展开全部 在一个生产库上,没有创建索引,是不可思议的,当然你的索引创e68a84e8a2ad62616964757a686964616f31333363373765建的太多了.冗余了,更是不可思议的. ...

  3. python字符串去掉标点_在Python去掉标点符号字符串的最佳方式_string_酷徒编程知识库...

    从效率的角度来看,你打不败translate() - 它在C中使用查找表执行原始字符串操作 - 你自己的C代码没有太多可能可以击败它.如果不担心速度,另一个选择是:exclude = set(stri ...

  4. dataframe修改数据_利用Python进行数据分析(语法篇)

    一.数据 结构化数据: 1.多维数组--矩阵 2.表格型数据(关系型数据库中的数据) 3.通过关键列相连接的表 4.间隔平均或者不平均的时间序列 二.关于iPython 三.Numpy学习 numpy ...

  5. python实际案例分析_将python运用到实际案例分析中(第四关作业)

    将python运用到实际案例分析中(第四关作业) 本章节主要分为两个部分,一是理解数据分析,二是分析销售数据案例析销售数据案例 一.理解数据分析 此处又分为一维数据分析.二维数据分析 一维数据分析用N ...

  6. python数据框去重_【Python】基于某些列删除数据框中的重复值

    Python按照某些列去重,可用drop_duplicates函数轻松处理.本文致力用简洁的语言介绍该函数. 一.drop_duplicates函数介绍 drop_duplicates函数可以按某列去 ...

  7. python花式索引_初探Numpy中的花式索引

    Numpy中对数组索引的方式有很多(为了方便介绍文中的数组如不加特殊说明指的都是Numpy中的ndarry数组),比如:基本索引:通过单个整数值来索引数组 import numpy as np arr ...

  8. python布尔型数组_《Python数据分析》一2.10 用布尔型变量索引NumPy数组

    本节书摘来自异步社区<Python数据分析>一书中的第2章,第2.10节,作者[印尼]Ivan Idris,更多章节内容可以访问云栖社区"异步社区"公众号查看 2.10 ...

  9. python list存储对象_《python解释器源码剖析》第4章--python中的list对象

    4.0 序 python中的list对象,底层对应的则是PyListObject.如果你熟悉C++,那么会很容易和C++中的list联系起来.但实际上,这个C++中的list大相径庭,反而和STL中的 ...

最新文章

  1. 青少年软件编程等级考试 python-中国电子学会《全国青少年软件编程等级考试标准》升级啦!...
  2. Qtum量子链作客第四届拉美商业科技大会
  3. the NTP socket is in use, exiting
  4. jsp项目手动导出成war包
  5. 变压器 5g_T5:文本到文本传输变压器
  6. H.264边缘块进行帧内预测时,上边缘和左边缘块的预测情况。
  7. 怎样在ppt中加入随机抽号_潮流女生怎样穿更时髦?经典中加入个性,减龄时尚还高级,快入坑...
  8. 微软开放Windows Phone 7中文开发中心
  9. R语言自然语言处理:关键词提取(TF-IDF)
  10. 2011-8-13 随笔一二
  11. oracle还原数据库方法,oracle数据库备份与还原(命令与方法)
  12. python编程入门第九讲,小甲鱼python视频第九讲(课后习题)
  13. 各大Asp木马的万能密码
  14. 《伪化生:修罗战场》写给那些在读伪化生专业的
  15. 常见经典音频运放(一般作前级用)
  16. 蚪侠-远程泛目录V21(镜像版)-免授权
  17. c语言精品课程课件,PPT-《C语言程序设计》精品课程.ppt
  18. 计算机毕业设计Java桌游店会员管理系统(源码+系统+mysql数据库+Lw文档)
  19. RSD面向对象分类的图像分割
  20. 软件测试2021年终总结

热门文章

  1. 关系数据库设计【笔记】
  2. gevent.joinall()开启协程
  3. HTML页面转换asp,将asp页面转换成html页面 代码
  4. MS SQL SERVER导出表结构到Excel
  5. Nginx的启动、停止与重启---linux
  6. (转载)The shortest, fastest, and easiest way to compare two tables in SQL Server: UNION
  7. js课程 5-14 js如何实现控制动画角色走动
  8. 20145307《信息安全系统设计基础》课程总结
  9. C# 用数据库记录填充树
  10. SQL Server Guid和NEWSEQUENTIALID函数