我有一個需要修改的3GB csv文件。 我有,我想lambda函數適用於(應該改變行的值)熊貓適用於大型csv文件
我想到目前爲止是讀取CSV爲分塊的文件,但內存問題仍然發生
解決方案列這是我試過到目前爲止:
dataframe = read_csv(file_path, iterator=True, chunksize=10000)
for chunk in dataframe:
chunk['column_name'].apply(change_row_lambda_function)
dataframe.to_csv(result_file_path, sep=',')
到底會發生什麼? –
加載只有相關的列 – vks
它只是在迭代完成之前引發內存錯誤(pandas.parser.TextReader._read_low_memory) –