我從同一張表中加載數據,但它非常大。 1百萬條記錄。我認爲最好創建250,000個大塊,所以我得到4個DataFrame。熊貓的連接性能
frames = []
for chunk in chunks(some_very_large_list, 250000):
frames.append(pd.DataFrame(data=chunk, columns=['A', 'B', 'C']))
當我打電話pd.concat(frames)
它正在採取非常長的時間合併在一起的一切。加速這一過程的最佳方式是什麼?
您是否將其與裝載所有數據的單片模塊進行比較? – languitar
是的,該性能並不好,因爲我必須從非本地支持數據庫加載所有內容。 –