運行時更改文件系統的本地I建成並通過命令行就好Nutch的1.7保持從Oozie的
的hadoop的jar Apache的ntuch-1.7.job org.apache.nutch.crawl.Crawl HDFS跑Nutch的1.7://MYSERVER/Nutch的/網址-dir HDFS:// MYSERVER/Nutch的/爬行-depth 5 -topN100
但是當我從Oozie的跑同樣的事情,它讓越來越 錯誤FS:HDFS:// MYSERVER/Nutch的/ crawl/crawldb/current,expected:file:///
我簽入源代碼,每次代碼都沒有
FileSystem fs = new JobClient(job).getFs();
fs被改回本地fs。
我覆蓋了這些語句的所有實例,然後作業在提取階段中死掉,只是說 java.io.IOException:作業失敗! 在org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:838)
它真的出現,從Oozie的運行造成JobClient類的錯誤版本(從Hadoop的core.jar添加)被加載。
以前有人看過這個嗎?
hello @ user1058511,如果我要求分享您的oozie工作流程作業文件,您可以介意嗎?我是oozie的新手,我想用Oozie自動化這個過程? 作爲參考請按照此鏈接[另一個問題](http://stackoverflow.com/questions/36219092/nutch-automated-crawl-using-oozie) –
這是很久以前。我不再爲同一家公司工作,也沒有代碼。 – bhomass