-2
我需要每隔兩個小時讀取和處理將近200個文件。文件大小在500KB到10MB之間變化。閱讀並處理大量帶多線程的文件
什麼應該是最好的實現方式?讀取所有文件是一個I/O作業。另一方面,我必須將該文件中的json序列化爲一個CPU作業的通用列表。
我是否需要用兩種不同的並行作業將它們分開,如首先獲取所有文件然後處理它們?或者在一個並行循環中一個接一個地處理和處理?
我也需要最好的存儲類型。我的意思是在哪裏使用併發包或只是列表?
謝謝。
您是否嘗試過簡單而幼稚的解決方案,逐個閱讀文件,逐個處理它們? 200 * 10MB = 2GB,聽起來不像您需要特別做任何事情來解決性能問題。換句話說,你**是**性能問題,還是**認爲**你有性能問題? –
現在,我在一個for循環中執行get-process-repeat。它持續1小時!我認爲最多10分鐘 –