我有一個非常大的文件,約。 2億行數據。用Zlib壓縮大文件的gzip
我想用Zlib庫壓縮它,特別是使用Writer。
每次讀取每行一行似乎需要相當長的一段時間。有沒有更好的方法來完成這一點?
這是我現在所擁有的:
require 'zlib'
Zlib::GzipWriter.open('compressed_file.gz') do |gz|
File.open(large_data_file).each do |line|
gz.write line
end
gz.close
end
使用'foreach'或'each'逐行閱讀與通過'read'啜食它比較好,特別是當文件很大時。 Slurping不可擴展。爲什麼不讓gzip處理整個任務,而不是使用Ruby和Zlib?它將以編譯代碼運行,而不是解釋腳本。 –