3
當我嘗試在hadoop上運行作業時,出現錯誤The job initialization failed: java.io.IOException: Split metadata size exceeded 10000000.
。錯誤:拆分元數據大小超過10000000
在mapred-site.xml
文件中指示因特網搜索將mapreduce.job.split.metainfo.maxsize
選項更改爲-1。但是您無法通過Google羣集中的文件編輯此選項。
我也嘗試通過命令行使用-Dmapreduce.job.split.metainfo.maxsize = -1
設置一個選項,但無濟於事。
我試圖把一個選項的源代碼中使用:
Configuration config = new Configuration();
Config.set ("mapreduce.job.split.metainfo.maxsize", "-1");
但它仍然犯同樣的錯誤。備擇方案?