0
我有這個懷疑,我正在運行一個單獨的NameNode和JobTracker的12節點羣集。我可以從JobTracker執行MapReduce作業,但我想從我的10個DataNode中的任何一個提交作業到JobTracker。這是可能的,如果是的話,如何做到這一點?如何將MapReduce作業從DataNode提交給JobTracker?
我有這個懷疑,我正在運行一個單獨的NameNode和JobTracker的12節點羣集。我可以從JobTracker執行MapReduce作業,但我想從我的10個DataNode中的任何一個提交作業到JobTracker。這是可能的,如果是的話,如何做到這一點?如何將MapReduce作業從DataNode提交給JobTracker?
是的,只要hadoop在路徑上(在每個節點上),並且集羣的配置已正確分配給每個數據節點。
實際上,您不一定需要配置才能正確分發,您只需要相應地配置jobtracker和hdfs網址(查看-jt
和-fs
選項的GenericOptionsParser選項)。
有關通用選項的更多信息,請參見此頁面:http://hadoop.apache.org/docs/r1.0.4/commands_manual.html#Generic+Options