我要閱讀大約7 GB的文本文件。閱讀大文本文件和內存
每當我嘗試讀取此文件時,所花費的時間比我預期的要長。
例如,假設我有350 MB的文本文件,而且我的筆記本電腦需時約一分鐘或更短。如果我想讀7GB,理想情況下應該花20分鐘或更少。不是嗎?礦山比我預期的要長得多,我想縮短閱讀和處理數據的時間。
我使用下面的代碼閱讀:
for line in open(filename, 'r'):
try:
list.append(json.loads(line))
except:
pass
讀取文件後,我用來處理使另一個列表和殺害前面的列表過濾掉從列表中不必要的數據。 如果您有任何建議,請讓我知道。
多少內存你有? 100GB? – Daniel 2015-03-02 18:43:19
@Daniel 4GB是我的筆記本電腦內存 – 2015-03-02 18:44:12
通過擴展json,你所做的不僅僅是將文件讀入內存。取決於json是什麼,將序列化數據擴展到對象後的python內存佔用空間很容易大於7GB。 – tdelaney 2015-03-02 19:01:26