我已經編寫了一個代碼,用於從非常大的數據文件中獲取輸入,對其執行一些簡單處理,然後將其存儲在擱置字典格式中。我有4100萬個條目要處理。然而,在我寫下3500萬條擱置詞典之後,表現突然下降並最終完全停止。任何想法我能做些什麼來避免這種情況?Python隨着時間的推移將性能寫入磁盤
我的數據在twitter上,它將用戶屏幕名稱映射到其ID。像這樣:
Jack 12
Mary 13
Bob 15
我需要非常快地訪問每個這些名稱。喜歡:當我給my_dict[Jack]
它返回12
。
完整的RAM和交換? – eumiro 2012-07-18 09:09:35
@eumiro是的,這正是我在做什麼.. – Amitash 2012-07-18 09:12:58
交換比在RAM中工作慢** **。改變你的數據結構,寫入DB(sqlite應該足夠了)...沒有關於你的數據的更多信息,這很難提供幫助。 – eumiro 2012-07-18 09:15:09