我想知道是否有辦法連接unix文本文件在一起更快 比運行cat
?什麼是捕捉多個文件的最快方法?
這是我面臨的問題。我正在處理一個文本文件〜100G的字符串,大小爲 。我試圖通過將文件分成幾百個小文件並並行處理它們來改善運行時間。最後,我將所得到的 文件依次整理在一起。文件讀/寫時間本身需要幾個小時。我 會想找到一種方法,以改善以下:
cat file1 file2 file3 ... fileN >> newBigFile
這就需要雙倍的磁盤空間爲
file1
...fileN
佔據了100G,並 然後newBigFile
另需100Gb的,然後file1
。 ..fileN
得到 去除的數據已經在
file1
...fileN
,做cat >>
即被讀 ,寫的時候我真正需要的是爲幾百個文件到 重新出現1個文件...
。 – 2010-11-01 19:31:11
我不知道我在說什麼,但有可能操縱文件記錄或什麼?由於我需要做的不是複製數據,而是將多個文件串在一起回到1? – Wing 2010-11-01 19:37:52