Ich habe folgenden Datenrahmen:Pandas: Summieren Anzahl der Spaltenwerte mit groupby
url='https://raw.githubusercontent.com/108michael/ms_thesis/master/mpl.Bspons.merge.1'
df=pd.read_csv(url, index_col=0)
df['date'] = pd.to_datetime(df['date'], format='%Y-%m-%d')
df = df.set_index(['date'])
df.head(3)
state year unemployment log_diff_unemployment id.thomas party type bills id.fec years_exp session name disposition catcode naics
date
2006-05-01 AK 2006 6.6 -0.044452 1440 Republican sen s2686-109 S2AK00010 39 109 National Cable & Telecommunications Association support C4500 81
2006-05-01 AK 2006 6.6 -0.044452 1440 Republican sen s2686-109 S2AK00010 39 109 National Cable & Telecommunications Association support C4500 517
2007-03-27 AK 2007 6.3 -0.046520 1440 Republican sen s1000-110 S2AK00010 40 110 National Treasury Employees Union support L1100 NaN
Ich mag die Anzahl der Rechnungen summieren, die in jeder Gruppe sind durch catcode > disposition > id.fec
definiert. Ich verwende den folgenden Code ein:
df['billsum'] = df.groupby([pd.Grouper(level='date', freq='A'), 'catcode', \
'disposition', 'id.fec']).bills.transform('sum')
, die die ‚Zahl‘ der Rücksendung von Rechnungen
df.head(3)
state year unemployment log_diff_unemployment id.thomas party type bills id.fec years_exp session name disposition catcode naics billsum
date
2006-05-01 AK 2006 6.6 -0.044452 1440 Republican sen s2686-109 S2AK00010 39 109 National Cable & Telecommunications Association support C4500 81 s2686-109s2686-109
2006-05-01 AK 2006 6.6 -0.044452 1440 Republican sen s2686-109 S2AK00010 39 109 National Cable & Telecommunications Association support C4500 517 s2686-109s2686-109
2007-03-27 AK 2007 6.3 -0.046520 1440 Republican sen s1000-110 S2AK00010 40 110 National Treasury Employees Union support L1100 NaN s1000-110
Stattdessen gibt in jeder Gruppe enthalten sind, der Code gibt alle der in jeder Gruppe enthaltenen Rechnungen. Ich möchte einfach die Anzahl der Rechnungen in jeder Gruppe. Hat jemand eine Idee, wie das funktioniert?
Nochmals vielen Dank! :) –