pandas-groupby

    0熱度

    1回答

    我需要根據數兩列進行排序並鍵入 881 X 497Ÿ 2400 X 2559Ÿ 2556ž 1748 x 443 y 217ž 1024ÿ 當前代碼段: import pandas as pd data1 = pd.read_csv('data/extracted.csv') data2 = data1.sort(['Result7d'], ascending=True)

    1熱度

    1回答

    我正在使用熊貓來分析我的數據。我有這個數據幀elapsed_seconds和m(幅度)。有沒有辦法讓我分組 - 浮點數的五位數(elapsed_seconds)並找到m的平均值? 例子: elapsed_seconds,m 10769.001,0.373637934043 10769.027,0.373403294813 10769.041,0.373069383556 10769.061

    3熱度

    2回答

    我常常最終會做這樣的事情在pandas: s2 = s1.groupby(level=1).sum() s2 = s2[s2>25] 在的話,我做了一些groupby操作,然後只保留滿足的結果一定條件下的結果。 在一行中有辦法嗎?更具體地說,是否可以在不創建系列的情況下執行此操作,然後在第二步中執行布爾選擇?

    0熱度

    1回答

    我已經在pandas中使用了groupby,但組的標籤只是一個任意值,而我希望這個標籤是索引的原始數據幀(這是datetime),以便我可以創建一個新的數據幀,我可以根據日期時間進行繪圖。 grouped_data = df.groupby( ['X',df.X.ne(df.X.shift()).cumsum().rename('grp')]) grouped_data2

    1熱度

    2回答

    我正在尋找合併多行不同dtypes的熊貓。我有我的.groupby()參數:['ID']。當按['ID']分組時,列['A']可能重複值,或者每行的數據不同。僅需要通過.sum()彙總列['B']。 input_df ID A B 140-1 Apple 3.2 140-1 Pear 5.0 143-2 Plum 1.2 143-2 Plum 2.0 什麼是由['ID'

    1熱度

    1回答

    我有以下通用格式的數據,我想重新取樣到30天有一系列窗口: 'customer_id','transaction_dt','product','price','units' 1,2004-01-02,thing1,25,47 1,2004-01-17,thing2,150,8 2,2004-01-29,thing2,150,25 3,2017-07-15,thing3,55,17 3,2

    1熱度

    2回答

    我想將用戶交易彙總到熊貓的列表中。我無法弄清楚如何製作一個由多個字段組成的列表。例如, df = pd.DataFrame({'user':[1,1,2,2,3], 'time':[20,10,11,18, 15], 'amount':[10.99, 4.99, 2.99, 1.99, 10.99]}) 它看起來像 amount time user 0 1

    0熱度

    1回答

    我有這個數據集被稱爲 '事件' id event_type_1 event_type_2 event_type_3 234 0 1 0 234 1 0 0 345 0 0 0 ,我想生產這種 id event_type_1 event_type_2 event_type_3 234 1 1 0 345 0

    1熱度

    1回答

    我有以下數據框: payment_method_id payment_plan_days plan_list_price actual_amount_paid date msno YyO+tlZtAXYXoZhNr3Vg3+dfVQvrBVGO8j1mfqe4ZHc= 41 30 129 129 2015-01-01 AZtu6Wl0gPojrEQYB8Q3vBSmE2wnZ

    13熱度

    1回答

    這是對this one的後續問題,其中jezrael使用pandas.DataFrame.groupby將列表創建的速度增加了幾百倍。具體而言,讓df是大的數據幀,然後 index = list(set(df.index)) list_df = [df.loc(x) for x in index] 和 list_df = [x for i,x in df.groupby(level=0, s