pandas-groupby

    1熱度

    1回答

    我有一個數據幀,看起來象下面這樣: dff = pd.DataFrame({'month': ['1','1','1','1','2','2','2','2','3','3'], 'sym': ['abc','pqr','xyz','lmn','abc','pqr','xyz','lmn','aaa','bbb'], 'count': ['10','14','25','2

    -7熱度

    1回答

    首先我想提出用熊貓用戶ID movieiD表面臨的問題 的代碼如下 import pandas as pd movie = pd.read_csv('ActionsOnly.csv') movie_pivot = movie.pivot_table(index='userId', columns='movieId', values='rating', fill_value=0.0) m

    -1熱度

    1回答

    對於示例數據框: Date T/F Amount 0 11/10/03 T 5 1 11/10/03 T 5 2 11/10/03 F 9 3 12/10/03 T 1 4 12/10/03 F 3 5 14/10/03 T 3 我按日期要組,並得到量的總和(這一點我知道該怎麼做)但我也想設置的T/F值的組是不管組中的最後一個值是,所以產生這樣的事情: Date A

    2熱度

    2回答

    我有一個表與如下數據: day concept click item_id 2015-05-01 A 6 s4P~Hzs1w5R12Dpyn2IK B 6 s4P~Hzs1w5R12Dpyn2IK C 1 DOwfmfFvdEIZ1IdXqTiu D 1 wPaYuIh~t8y7rU3HP43N D

    2熱度

    1回答

    嗨我有一個過濾器'米'集足夠靈活,可以改變我。有時,我想通過Car或x_acft_body或任何其他字段等進行過濾。有時,我想要所有行都返回,通過註釋和取消註釋所需的行。但是在不改變後面的代碼的情況下,在過濾器'm'行之後。 我怎麼能有一個過濾器,將返回真正的所有行,當我不想過濾器應用?對於例如像1==1但我知道這是行不通的。 我不想設置dfdata.somefield.notnull()等,因爲

    0熱度

    3回答

    我正在與熊貓羣體奮鬥,這可能很容易解決。 例如 name number A 10 A 8 B 7 B 6 B 9 在該數據集,什麼是最簡單的矢量化方法,利用該可以排除類別的所有行項目(列)「名」,其中的「數量」的最小值爲8以下。 在上述所有B將被刪除,因爲最小有一個元素的值低於8. 我相信它必須可能與groupby,apply或filter,但不記得,如何。

    1熱度

    1回答

    所以我一直在淘汰類似問題的解決方案,並保持擊中牆壁。我是python的新手,並且使用pandas/python作爲ETL,所以如果我沒有充分描述我的情況,請原諒我。 我有兩個dataframes DF1的樣子: Subscriber Key OtherID AnotherID 1 'abc' '12' '23' 2 'bcd' '45' '56' 3 'abc' '12'

    1熱度

    1回答

    https://www.kaggle.com/anokas/time-travel-eda 什麼是這些代碼意味着什麼? groupby('date_x')['outcome'].mean(),我無法在sklearn文檔中找到它。 date_x['Class probability'] = df_train.groupby('date_x')['outcome'].mean() date_x['F

    1熱度

    3回答

    比方說,我有一個數據幀是這樣的: date id val 0 2017-01-01 1 10 1 2019-01-01 1 20 2 2017-01-01 2 50 我想這組數據集由id。 對於每個組,我想添加一個新的行,日期從現在開始爲1年。如果它晚於組中的最後一個日期,則只應添加此行。行的val應該與組中的最後一行相同。 決賽桌應該是這樣的: date id val 0 2

    1熱度

    1回答

    這是我之前的問題here的後續操作。 假設這樣的數據集(其原本是從.csv讀取): data = pd.DataFrame({'id': [1,2,3,1,2,3,1,2,3], 'time':['2017-01-01 12:00:00','2017-01-01 12:00:00','2017-01-01 12:00:00', '2017-01-01 12: