我意外刪除了hadoop.tmp.dir,在我的情況下是/tmp/{user.name}/*。現在,每次當我運行從CLI蜂巢查詢和mapred作業將在任務失敗的嘗試如下:hadoop mapred job - 初始化嘗試mapred任務時出錯
Error initializing attempt_201202231712_1266_m_000009_0:
org.apache.hadoop.util.DiskChecker$DiskErrorException: Could not find any valid local directory for ttprivate/taskTracker/hdfs/jobcache/job_201202231712_1266/jobToken
at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathForWrite(LocalDirAllocator.java:376)
at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:146)
at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:127)
at org.apache.hadoop.mapred.TaskTracker.localizeJobTokenFile(TaskTracker.java:4432)
at org.apache.hadoop.mapred.TaskTracker.initializeJob(TaskTracker.java:1301)
at org.apache.hadoop.mapred.TaskTracker.localizeJob(TaskTracker.java:1242)
at org.apache.hadoop.mapred.TaskTracker.startNewTask(TaskTracker.java:2541)
at org.apache.hadoop.mapred.TaskTracker$TaskLauncher.run(TaskTracker.java:2505)
這是一個測試環境,我不關心的數據。我怎樣才能讓系統恢復正常?
你能更具體嗎?通過stop-all.sh,你的意思是我應該重新啓動我的hadoop集羣? – Shengjie 2012-04-04 16:52:04
是的我的意思是你應該調用腳本文件stop-all.sh,並配置你的DFS,就像你安裝它的時間一樣 – user1304907 2012-04-04 22:43:50
有你,我使用的是cloudera版本,很奇怪,它沒有那個腳本。但無論如何,我重新啓動了羣集。我終於注意到我的任務跟蹤器節點磁盤空間不足。將嘗試釋放一些空間,看看它是否能治癒問題。 – Shengjie 2012-04-04 23:19:49