2016-02-28 89 views
0

我是新來的spark,我試圖將Spark Standalone安裝到3節點羣集。我已經完成了從主機到其他節點的無密碼SSH。無法在獨立模式下使用start-all.sh啓動Spark羣集

我曾嘗試以下配置的變化

  • 更新的主機名中的conf/slaves.sh文件2個節點。創建spark-env.sh文件,並更新與主URL同樣的SPARK_MASTER_IP,試圖 在火花defaults.conf文件更新spark.master值

    的conf/slaves.sh的快照

    # A Spark Worker will be started on each of the machines listed below. 
    Spark-WorkerNode1.hadoop.com 
    Spark-WorkerNode2.hadoop.com 
    

快照火花defaults.conf的

# Example: 
     spark.master      spark://Spark-Master.hadoop.com:7077 

但是當我嘗試通過在主機上運行的start-all.sh啓動羣集,它不承認工人節點並以本地方式啓動羣集。

它不會給出任何錯誤,日誌文件顯示成功啓動服務'sparkMaster'併成功啓動服務'sparkWorker'在主服務器上。

我試圖在單個節點上運行啓動主機和啓動從機腳本,它似乎工作正常。我可以在網絡用戶界面中看到2名工作人員。我正在使用火花1.6.0

有人能幫我解決我在嘗試運行start-all時丟失的東西嗎?

+0

請提供日誌。沒有這些,我們只能猜測。 – zero323

+0

也有類似的問題。任何解決方案?使用手動工作人員附件來掌握,但是當我運行'start-all.sh'時,工作節點出現在主UI中,但工作節點':8081'的鏈接不起作用。 – horatio1701d

回答

1

的conf/slaves.sh

的快照文件應該命名爲slaves沒有擴展。

相關問題