我有許多排序的Hadoop作業,其中需要分佈式緩存文件。Hadoop在作業中更改了分佈式緩存對象
驅動程序類(Controller)從前一個作業接收輸入,修改一個文件,將其放入DistributedCache並開始一個新作業。
第一份工作後(即在第二個工作),我得到這個錯誤:
java.io.IOException:
The distributed cache object hdfs://xxxx/xx/x/modelfile2#modelfile2
changed during the job from 11/8/12 11:55 PM to 11/8/12 11:55 PM
有誰知道這個問題可能是什麼?
這項工作似乎仍然成功完成! 這是一個Hadoop錯誤?它與HDFS上的可用空間有什麼關係? 你們有沒有遇到同樣的問題? – Razvan