我有一個簡單的Spark羣集 - 一個主機和一個從機。工人是免費的,沒有繁忙的資源。Apache Spark:工作人員已連接並且空閒,但不接受任務
但是當我嘗試執行任何應用程序(例如, 'sc.parallelize(1〜10).foreach(的println)' 火花殼)我看到以下錯誤:
WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
但是,當應用程序在與從屬服務器相同的服務器上啓動時,它會成功運行。看起來有些東西會聽錯網絡接口。
該配置是默認配置,由github的火花克隆。
我開始掌握以下方法:
[email protected] > ./sbin/start-master.sh -h 192.168.111.204
奴:
[email protected] > ./sbin/start-slave.sh spark://192.168.111.204:7077 -h 192.168.111.230
應用:
[email protected] > ./bin/spark-shell --master spark://192.168.111.204:7077
我應該怎麼檢查?
UPD:剛試過兩臺虛擬機一樣。工作正常。也許服務器與主機名有一些問題。
我已經試過了。沒有結果。無論如何,WebUI顯示有很多資源。 –