2011-09-12 35 views
2

可能重複:
Why can't hadoop split up a large text file and then compress the splits using gzip?Hadoop的gzip的輸入文件只有一個映射

我發現,使用被gzip壓縮輸入文件時,Hadoop的選擇只分配一個map任務處理我的地圖/減少工作。

的gzip壓縮的文件超過1.4 GB,所以我希望很多映射器以並行方式運行(使用非壓縮文件時exacly等)

是否有任何配置,我可以做些什麼來改善呢?

+0

這個問題是相同的 http://stackoverflow.com/questions/6511255/why-cant-hadoop-split-up-a-大文本文件和當時的壓縮最分裂,使用-GZ 和 http://stackoverflow.com/questions/5630245/hadoop-gzip-compressed-files 。 –

回答

相關問題