删除具有重复索引的行(Pandas DataFrame和TimeSeries)

Pau*_*l H 217 python pandas

我正在从网上阅读一些自动天气数据.观察每5分钟发生一次,并编译成每个气象站的月度文件.一旦我完成了解析文件,DataFrame看起来像这样:

                      Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress
Date                                                                                      
2001-01-01 00:00:00  KPDX          0           0     4       3        0        0     30.31
2001-01-01 00:05:00  KPDX          0           0     4       3        0        0     30.30
2001-01-01 00:10:00  KPDX          0           0     4       3        4       80     30.30
2001-01-01 00:15:00  KPDX          0           0     3       2        5       90     30.30
2001-01-01 00:20:00  KPDX          0           0     3       2       10      110     30.28
Run Code Online (Sandbox Code Playgroud)

我遇到的问题是,有时科学家会回过头来纠正观察结果 - 不是通过编辑错误的行,而是通过在文件的末尾附加一个重复的行.这种情况的简单示例如下所示:

import pandas 
import datetime
startdate = datetime.datetime(2001, 1, 1, 0, 0)
enddate = datetime.datetime(2001, 1, 1, 5, 0)
index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')
data1 = {'A' : range(6), 'B' : range(6)}
data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}
df1 = pandas.DataFrame(data=data1, index=index)
df2 = pandas.DataFrame(data=data2, index=index[:3])
df3 = df2.append(df1)
df3
                       A   B
2001-01-01 00:00:00   20 -50
2001-01-01 01:00:00  -30  60
2001-01-01 02:00:00   40 -70
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2
Run Code Online (Sandbox Code Playgroud)

所以我需要df3成为:

                       A   B
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5
Run Code Online (Sandbox Code Playgroud)

我认为添加一列行号(df3['rownum'] = range(df3.shape[0]))可以帮助我选择最底层的行来获取任何值DatetimeIndex,但我仍然坚持找出group_bypivot(或???)语句来使其工作.

n8y*_*der 393

我建议在Pandas Index本身上使用重复的方法:

df3 = df3.loc[~df3.index.duplicated(keep='first')]
Run Code Online (Sandbox Code Playgroud)

虽然所有其他方法都有效,但目前接受的答案是迄今为止提供的示例中性能最差的答案.此外,虽然groupby方法的性能稍差,但我发现重复的方法更具可读性.

使用提供的示例数据:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop
Run Code Online (Sandbox Code Playgroud)

请注意,您可以通过更改keep参数来保留最后一个元素.

还应该注意,此方法也适用MultiIndex(使用保罗示例中指定的df1 ):

>>> %timeit df1.groupby(level=df1.index.names).last()
1000 loops, best of 3: 771 µs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]
1000 loops, best of 3: 365 µs per loop
Run Code Online (Sandbox Code Playgroud)

  • `loc` 可能不是必需的。只需执行`df3 = df3[~df3.index.duplicated(keep='first')]`,这将删除除第一次出现之外的所有具有重复索引的行。 (6认同)
  • @jsl5703 它反转了掩码。因此,一切都变成了“真”,反之亦然。在这种情况下,这意味着我们将根据方法选择出不重复的。 (6认同)
  • 如果有人不介意回答的话, ~ 在 df3 = df3.loc[~df3.index.duplicated(keep='first')] 中做什么? (4认同)
  • 对于那些喜欢“链接”的人:`df3.query("~index.duplicated(keep='first')")` (3认同)
  • 这是什么魔法,在 DataFrame 上使用按位 (~) 操作甚至可以工作。点赞和评论,因为点赞似乎还不够。为 %timeit 添加了奖励。 (2认同)
  • @Jayen ```Index.duplicate``` 返回一个与原始索引长度相同的布尔数组(```numpy.ndarray```),可以用作掩码;正如@Stefan_EOX 指出的,``Index.drop_duplicates``` 返回一个``Index```。“Index”包含索引标签,而不是布尔值,并且长度可能比原始长度短。基于索引标签而不是布尔掩码进行选择将包括原始数据帧中标签的所有匹配项,从而重新引入重复项(除非您使用 ```keep=False``` 来获取 ```Index``` )并违背了目的。 (2认同)

D. *_* A. 111

我的原始答案现在已经过时,一直供参考.

一个简单的解决方案是使用 drop_duplicates

df4 = df3.drop_duplicates(subset='rownum', keep='last')
Run Code Online (Sandbox Code Playgroud)

对我来说,这在大型数据集上运行得很快.

这要求'rownum'是具有重复的列.在修改过的例子中,'rownum'没有重复,因此没有任何东西被消除.我们真正想要的是将'cols'设置为索引.我没有找到告诉drop_duplicates只考虑索引的方法.

这是一个解决方案,它将索引添加为数据框列,删除重复项,然后删除新列:

df3 = df3.reset_index().drop_duplicates(subset='index', keep='last').set_index('index')
Run Code Online (Sandbox Code Playgroud)

如果你想以正确的顺序重新开始,只需调用sort数据帧即可.

df3 = df3.sort()
Run Code Online (Sandbox Code Playgroud)

  • 另一个变体是:`df.reset_index().drop_duplicates(cols ='index',take_last = True).set_index('index')` (10认同)
  • 虽然此方法确实有效,但它还会创建 DataFrame 的两个临时副本,并且其性能明显低于使用建议作为替代答案的重复索引或 groupby 方法。 (2认同)

Pau*_*l H 61

天啊.这其实很简单!

grouped = df3.groupby(level=0)
df4 = grouped.last()
df4
                      A   B  rownum

2001-01-01 00:00:00   0   0       6
2001-01-01 01:00:00   1   1       7
2001-01-01 02:00:00   2   2       8
2001-01-01 03:00:00   3   3       3
2001-01-01 04:00:00   4   4       4
2001-01-01 05:00:00   5   5       5
Run Code Online (Sandbox Code Playgroud)

跟进编辑2013-10-29 在我有一个相当复杂的情况下MultiIndex,我想我更喜欢这种groupby方法.这是后人的简单例子:

import numpy as np
import pandas

# fake index
idx = pandas.MultiIndex.from_tuples([('a', letter) for letter in list('abcde')])

# random data + naming the index levels
df1 = pandas.DataFrame(np.random.normal(size=(5,2)), index=idx, columns=['colA', 'colB'])
df1.index.names = ['iA', 'iB']

# artificially append some duplicate data
df1 = df1.append(df1.select(lambda idx: idx[1] in ['c', 'e']))
df1
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233
#   c   0.275806 -0.078871  # <--- dup 1
#   e  -0.066680  0.607233  # <--- dup 2
Run Code Online (Sandbox Code Playgroud)

这是重要的部分

# group the data, using df1.index.names tells pandas to look at the entire index
groups = df1.groupby(level=df1.index.names)  
groups.last() # or .first()
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233
Run Code Online (Sandbox Code Playgroud)


小智 7

删除重复项(保留第一)

idx = np.unique( df.index.values, return_index = True )[1]
df = df.iloc[idx]
Run Code Online (Sandbox Code Playgroud)

删除重复项(保留最后)

df = df[::-1]
df = df.iloc[ np.unique( df.index.values, return_index = True )[1] ]
Run Code Online (Sandbox Code Playgroud)

测试:使用 OP 数据进行 10k 次循环

numpy method - 3.03 seconds
df.loc[~df.index.duplicated(keep='first')] - 4.43 seconds
df.groupby(df.index).first() - 21 seconds
reset_index() method - 29 seconds
Run Code Online (Sandbox Code Playgroud)