熊猫:将TimeGrouper与另一个Groupby参数结合使用

And*_*ndy 10 python group-by pandas

我有以下DataFrame:

df = pd.DataFrame({
'Branch' : 'A A A A A B'.split(),
'Buyer': 'Carl Mark Carl Joe Joe Carl'.split(),
'Quantity': [1,3,5,8,9,3],
'Date' : [
DT.datetime(2013,1,1,13,0),
DT.datetime(2013,1,1,13,5),
DT.datetime(2013,10,1,20,0),
DT.datetime(2013,10,2,10,0),
DT.datetime(2013,12,2,12,0),                                      
DT.datetime(2013,12,2,14,0),
]})

from pandas.tseries.resample import TimeGrouper
Run Code Online (Sandbox Code Playgroud)

如何使用TimeGrouper在分支机构和20天内对这些数据进行分组?

我以前的所有尝试都失败了,因为我无法将TimeGrouper与groupby函数中的另一个参数组合在一起.

我非常感谢你的帮助.

谢谢

安迪

And*_*den 16

您现在可以将TimeGrouper与另一列一起使用(从IIRC pandas 版本0.14开始):

In [11]: df1 = df.set_index('Date')

In [12]: g = df1.groupby([pd.TimeGrouper('20D'), 'Branch'])

In [13]: g.sum()
Out[13]:
                            Quantity
Date                Branch
2013-01-01 13:00:00 A              4
2013-09-18 13:00:00 A             13
2013-11-17 13:00:00 A              9
                    B              3
Run Code Online (Sandbox Code Playgroud)


Jef*_*eff 5

从这里的讨论:https://github.com/pydata/pandas/issues/3791

In [38]: df.set_index('Date').groupby(pd.TimeGrouper('6M')).apply(lambda x: x.groupby('Branch').sum())
Out[38]: 
                   Quantity
           Branch          
2013-01-31 A              4
2014-01-31 A             22
           B              3
Run Code Online (Sandbox Code Playgroud)

还有一个更复杂的问题

In [55]: def testf(df):
   ....:     if (df['Buyer'] == 'Mark').sum() > 0:
   ....:         return Series(dict(quantity = df['Quantity'].sum(), buyer = 'mark'))
   ....:     return Series(dict(quantity = df['Quantity'].sum()*100, buyer = 'other'))
   ....: 

In [56]: df.set_index('Date').groupby(pd.TimeGrouper('6M')).apply(lambda x: x.groupby('Branch').apply(testf))
Out[56]: 
                   buyer quantity
           Branch                
2013-01-31 A        mark        4
2014-01-31 A       other     2200
           B       other      300
Run Code Online (Sandbox Code Playgroud)