tst*_*eby 5 python dataframe pandas pandas-groupby
我需要重新采样 Pandas 中的一些数据,我使用下面的代码:
根据我的数据,5 hours.
df['date'] = pd.to_datetime(df['date'], format='%y-%m-%d')
df = df.set_index('date')
df.groupby('id').resample('D')['value'].agg('sum').loc[lambda x: x>0]
Run Code Online (Sandbox Code Playgroud)
这速度太慢了。
如何在数据上加快上述代码的速度:
id date value
1 16-12-1 9
1 16-12-1 8
1 17-1-1 18
2 17-3-4 19
2 17-3-4 20
1 17-4-3 21
2 17-7-13 12
3 17-8-9 12
2 17-9-12 11
1 17-11-12 19
3 17-11-12 21
giving output:
id date
1 2016-12-04 17
2017-01-01 18
2017-04-09 21
2017-11-12 19
2 2017-03-05 39
2017-07-16 12
2017-09-17 11
3 2017-08-13 12
2017-11-12 21
Name: value, dtype: int64
Run Code Online (Sandbox Code Playgroud)
我将日期设置为索引,但代码太慢了。任何帮助都会很棒。
尝试一下。我将使用pd.Grouper()并将频率指定为每天,希望它更快。另外,我正在摆脱并立即agg使用。.sum()
df['date'] = pd.to_datetime(df['date'], format='%y-%m-%d')
df = df.set_index('date')
df2 = df.groupby(['id',pd.Grouper(freq='D')])['value'].sum()
Run Code Online (Sandbox Code Playgroud)
结果:
id date
1 2016-12-01 17
2017-01-01 18
2017-04-03 21
2017-11-12 19
2 2017-03-04 39
2017-07-13 12
2017-09-12 11
3 2017-08-09 12
2017-11-12 21
Run Code Online (Sandbox Code Playgroud)
希望这有效。
[编辑]
所以我只是在随机生成的 100000 行 df 上对这两种方法进行了一个小测试
df = pd.DataFrame(np.random.randint(0, 30,size=100000),
columns=["id"],
index=pd.date_range("19300101", periods=100000))
df['value'] = np.random.randint(0, 10,size=100000)
Run Code Online (Sandbox Code Playgroud)
并在这两个代码上进行了尝试,结果是:
用于使用resmple:
startTime = time.time()
df2 = df.groupby('id').resample('D')['value'].agg('sum').loc[lambda x: x>0]
print(time.time()-startTime)
1.0451831817626953 seconds
Run Code Online (Sandbox Code Playgroud)
用于使用pd.Grouper():
startTime = time.time()
df3 = df.groupby(['id',pd.Grouper(freq='D')])['value'].sum()
print(time.time()-startTime)
0.08430838584899902 seconds
Run Code Online (Sandbox Code Playgroud)
大约快 12 倍!(如果我的数学是正确的)
| 归档时间: |
|
| 查看次数: |
3069 次 |
| 最近记录: |