2015-10-03 93 views
1

我已經創建在主機和從機節點一個Hadoop多節點集羣並且也配置SSH Hadoop的多節點集羣現在我可以連接在主節點無法啓動start-dfs.sh在

但是,如果沒有密碼到從當我嘗試在我無法連接到從屬節點執行主節點start-dfs.sh停在下面一行

日誌:

[email protected]:~$ start-all.sh 
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-namenode-master.out 
[email protected]'s password: master: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-datanode-master.out 

我按下回車

slave: Connection closed by 192.168.0.2 
master: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-secondarynamenode-master.out 
jobtracker running as process 10396. Stop it first. 
[email protected]'s password: master: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-tasktracker-master.out 

slave: Permission denied, please try again. 
[email protected]'s password: 

進入從密碼連接被關閉

下面的事情我都試過之後,但沒有結果:在這兩個主&從節點

  • 創建新的SSH密鑰和配置

    1. 格式化的NameNode節點
    2. 覆蓋默認的HADOOP_LOG_DIR形式this
  • 回答

    0

    確保使用名爲hadoop的新用戶啓動hadoop服務。

    然後確保將公鑰添加到具有該新用戶的從站。

    如果不工作,檢查你的防火牆或者iptables的

    我希望它能幫助

    0

    這意味着你還沒有創建公鑰正常。

    請按照下面的順序。

    1. 創建用戶
    2. 提供所有必需的權限給該用戶
    3. 生成具有相同的用戶
    4. 格式名稱節點
    5. 開始的Hadoop服務的公共密鑰。

    現在它不應該要求輸入密碼。

    2

    我想你錯過了這一步「添加SSH公鑰authorized_keys文件在你的目標主機」

    只需正確重做無密碼的SSH的一步。按照這樣的:

    1. 生成公共和私有SSH密鑰

      ssh-keygen 
      
    2. 複製SSH公用密鑰(id_rsa.pub)添加到您 目標root帳戶託管

      .ssh/id_rsa 
      .ssh/id_rsa.pub 
      
    3. 添加您的目標上的authorized_keys文件的SSH公鑰 主機

      cat id_rsa.pub >> authorized_keys 
      
    4. 根據您的SSH版本,你可能需要在 目標主機上的.ssh目錄(700)和authorized_keys文件在 目錄(600)設置權限。

      chmod 700 ~/.ssh 
      chmod 600 ~/.ssh/authorized_keys 
      
    5. 檢查連接:

      ssh [email protected]<remote.target.host> 
      

      其中<remote.target.host>有每個主機名的集羣中的價值。

      如果在您的第​​一個 連接期間顯示以下警告消息:是否確定要繼續連接(是/否)?

      輸入是。

    參見:Set Up Password-less SSH

    注意:密碼不會被要求,如果你的密碼的ssh的設置是否正確。

    +0

    是的,這應該修復issu,因爲很明顯無密碼的ssh設置不正確 –