我正在編寫Python代碼,它逐漸構造一個大字典(6億個元素),同時不斷從字典中讀取。我經常使用cPickle將這個對象寫到一個文件中,然後從文件中讀取,從中斷的地方繼續。對象大於RAM
到此爲止,字典將佔用大約40 GB。我的電腦有16 GB的RAM。我應該期待什麼行爲?內存錯誤?冷凍電腦?訪問字典的速度非常慢?
此外,我試圖修復我的替代實現(一個NumPy數組而不是字典),預計只需要5 GB,但也要運行三次左右。我是否正確地認爲,保持在16 GB以內的恆定內存訪問將使NumPy版本實際運行得更快?
期待「數據庫安裝」;) – furas