我是新來的spark,我試圖將Spark Standalone安裝到3節點羣集。我已經完成了從主機到其他節點的無密碼SSH。無法在獨立模式下使用start-all.sh啓動Spark羣集
我曾嘗試以下配置的變化
更新的主機名中的conf/slaves.sh文件2個節點。創建spark-env.sh文件,並更新與主URL同樣的SPARK_MASTER_IP,試圖 在火花defaults.conf文件更新spark.master值
的conf/slaves.sh的快照
# A Spark Worker will be started on each of the machines listed below. Spark-WorkerNode1.hadoop.com Spark-WorkerNode2.hadoop.com
快照火花defaults.conf的
# Example:
spark.master spark://Spark-Master.hadoop.com:7077
但是當我嘗試通過在主機上運行的start-all.sh啓動羣集,它不承認工人節點並以本地方式啓動羣集。
它不會給出任何錯誤,日誌文件顯示成功啓動服務'sparkMaster'併成功啓動服務'sparkWorker'在主服務器上。
我試圖在單個節點上運行啓動主機和啓動從機腳本,它似乎工作正常。我可以在網絡用戶界面中看到2名工作人員。我正在使用火花1.6.0
有人能幫我解決我在嘗試運行start-all時丟失的東西嗎?
請提供日誌。沒有這些,我們只能猜測。 – zero323
也有類似的問題。任何解決方案?使用手動工作人員附件來掌握,但是當我運行'start-all.sh'時,工作節點出現在主UI中,但工作節點':8081'的鏈接不起作用。 –
horatio1701d