我正試圖在NFS的同一局域網上的5臺機器上安裝hadoop集羣。我面臨的問題是,一臺機器上的hadoop副本會複製到所有機器上,所以我無法爲每個從機提供專有的屬性。由於這個原因,我得到了「無法創建鎖定」類錯誤。常見問題表明NFS不應該被使用,但我沒有別的選擇。 有沒有一種方法,我可以指定屬性,大師應該從其中選擇位置1的配置文件,slave1應該從位置2中選擇其配置文件.....NFS上的Hadoop集羣
回答
只需要清楚,計算機配置節點和HDFS存儲。您的問題似乎只是配置的存儲空間。這可以並且應該在本地完成,或者至少讓每臺機器根據一些本地標識的配置映射到符號鏈接(例如Mach01 - >/etc/config/mach01,...)。
(修訂1)關於符號鏈接下面的評論/問題:首先,我要承認這不是我可以立即解決的問題。有2種方法我看到:
- 有一個腳本(例如,在啓動時或啓動的Hadoop的包裝)的機器上確定主機名(如
hostname -a') which then identifies a local symlink (e.g.
在/ usr /本地/ hadoopConfig')到正確的目錄NFS目錄結構。 - 根據本地計算機的主機名設置一個環境變量la
HADOOP_HOME
,並讓各種腳本對其進行處理。
雖然#1應該工作,它傳達給我的方法,而不是一個,我設置了,而且我是有點擔心的符號鏈接事件,該主機配置錯誤(會發生這種情況) 。方法#2看起來更健壯。
你能詳細介紹一下sym鏈接的東西嗎?這是否意味着我可以在不同的機器上擁有相同的位置,成爲其他位置的符號鏈接?例如,我可以在機器1和2上分別指向/ home/temp1和/ home/temp2的符號鏈接/ home/temp嗎?這將解決我的問題! –
在回答中處理比評論更容易,所以我會修改答案。 – Iterator
即使我更傾向於使用#2 –
- 1. 在hadoop集羣上安裝spark集羣
- 2. java.lang.NoClassDefFoundError:上運行Hadoop集羣
- 3. 爲Hadoop集羣
- 4. Hadoop NFS無法啓動Hadoop NFS網關
- 5. Hadoop集羣與碼頭羣
- 6. 在NFS上安裝Hadoop
- 7. 沒有hadoop集羣的windows上的MRUnit
- 8. 的UnknownHostException上的TaskTracker在Hadoop集羣
- 9. h2o連接到hadoop集羣上的集羣
- 10. 設置hadoop集羣
- 11. Hadoop集羣工作
- 12. Hbase Hadoop集羣.. java.io.IOException:java.lang.NoSuchMethodExceptio
- 13. 優化hadoop集羣上的nutch性能
- 14. Hadoop集羣上的Namenode和Jobtracker信息
- 15. TEZ崩潰Hadoop的2.5.2集羣上
- 16. Azure上的Hadoop創建新羣集
- 17. Hadoop集羣上的R安裝
- 18. 的Hadoop集羣配置
- 19. Hadoop集羣的類型
- 20. 沒有Hadoop的Canopy集羣
- 21. 關閉namenode的Hadoop集羣
- 22. Hadoop的2節點集羣
- 23. 在hadoop集羣上部署Mahout
- 24. Spark集羣 - 在hadoop上讀寫
- 25. 在Hadoop Virtualbox羣集上訪問文件
- 26. 在現有Hadoop集羣上安裝Spark
- 27. 在Hadoop集羣上運行Mahout
- 28. 在Hadoop集羣上運行mapreduce jar
- 29. 遠程集羣上的陳舊的NFS文件句柄問題
- 30. Hadoop和多個集羣
Hadoop旨在運行每個節點都有自己的本地連接的磁盤。任何使用共享NFS系統的大型Map/Reduce作業都可能表現不佳。即使在我們擁有8個本地驅動器的集羣中,我們也可以獲得IO等待(到目前爲止,12個主軸節點已經運行良好)。 – cftarnas
我需要這個來測試我公司產品的一些功能。我不打算將此設置用於任何地圖/縮小的東西,這僅用於測試目的。 –