當您在文件中存儲文本並繼續添加文件時,文件的大小限制是否大於此限制?有些崩潰或錯誤會導致損失。該應用程序需要保存一個月的日記數據。處理非常大的文本數據需要保存的文件格式
0
A
回答
0
您可以使用任何文件格式。爲了安全起見,大尺寸期望在處理大文件時使用OutOfMemoryException
。因此,使用OutOfMemoryException
catch塊來處理(預期的)大文件。
0
是的,當處理大文件時,您可以反抗內存不足,在寫入文件之前,最好先檢查可用空間。
你可以找到如何在這裏做到這一點: https://stackoverflow.com/a/8133437/1129332
相關問題
- 1. 一行一行處理非常大(> 20GB)的文本文件
- 2. 如何處理非常大的數據?
- 3. 處理非常大的數據幀
- 4. PySpark的流數據和保存處理的數據到文件
- 5. 將大文本數據導入並保存爲MATLAB格式
- 6. 用hadoop處理非常小的文件
- 7. 保存的文件格式
- 8. 保存數據時IE非兼容性會添加不需要的文本
- 9. 選擇語言來處理非常大的文本文件(高達幾TB)
- 10. 無法保存數據到文本文件使用PHP保存爲JSON格式
- 11. 如何保存一個非常複雜和龐大的數據處理狀態?
- 12. 很多文本文件中的大量數據 - 如何處理?
- 13. Hadoop分佈式緩存處理大查找文本文件
- 14. 如何管理數據量非常大的文件夾中
- 15. 需要將批處理文件結果寫入文本文件
- 16. Spring批處理 - 使用內存數據庫處理大文件
- 17. 在數據庫中存儲非常大的文件
- 18. 格式化需要更改bash腳本中的文本文件
- 19. 批處理文件,需要保存輸出到文本文件的telnet命令在windows
- 20. 需要幫助的批處理文件
- 21. python - 處理非常大的文件(> 90GB)
- 22. 使用promised-csv來處理非常大的csv文件
- 23. 解析,處理和使用非常大的XML文件
- 24. 使用openpyxl處理非常大的文件python
- 25. Hadoop處理非常大的二進制文件
- 26. 在python中處理非常大的netCDF文件
- 27. 處理非常大的數字
- 28. 無法映射文件內存-mongo需要64位版本才能處理較大的數據集
- 29. 要將輸入的arff文件分割成更小的塊來處理非常大的數據集
- 30. 非常大的CSV文件
任何文件格式可以是「規模大」。 – CommonsWare
你爲什麼這麼問? –
@Ilya_Gazman Iam要求我的檔案長時間保持安全。 – Snowrain