我需要幫助,找出最快的方法來讀取每個文件中超過500,000行的約80個文件,並將每個輸入文件的行寫入一個主文件作爲主文件中的列。主文件必須寫入文本編輯器(如記事本),而不是Microsoft產品,因爲它們無法處理行數。讀取多個超大文件的最佳方法
例如,主文件應該是這個樣子:
File1_Row1,File2_Row1,File3_Row1,...
File1_Row2,File2_Row2,File3_Row2,...
File1_Row3,File2_Row3,File3_Row3,...
等
我已經試過2個解決方案迄今:
- 創建交錯數組舉行每個文件的內容寫入一個數組,然後一次讀取所有文件中的所有行,寫入主文件。此解決方案的問題在於Windows操作系統內存引發了太多正在使用虛擬內存的錯誤。
- 動態地爲讀取特定行號的80個文件中的每一個創建讀取器線程,並且一旦所有線程完成讀取一行,組合這些值並寫入文件,併爲所有文件中的每一行重複。這個解決方案的問題是它非常慢。
有沒有人有更好的解決方案以快速讀取這麼多大文件?
「...喜歡記事本,而不是微軟的產品......」 - 我討厭把它分解給你,但記事本是微軟的產品 –
......而文本文件是文本文件。換句話說,沒有'NotePadFileStream'。 – ChiefTwoPencils