你好人和新年快樂;)!Spark Spark和Spark應用程序可以在同一個YARN集羣中運行嗎?
我正在用Apache Spark,HDFS和Elastichsearch構建一個lambda體系結構。 在下面的圖片,在這裏我想做的事:
到目前爲止,我已經寫在Java的源代碼,我的火花流和火花的應用。我在火花文檔中讀到spark可以在Mesos或YARN混淆器中運行。如圖所示,我已經有了一個hadoop集羣。是否有可能在同一個hadoop集羣中運行我的火花流和火花應用程序?如果是,是否有任何特定的配置要做(例如節點的數量,RAM ......)。或者我必須爲火花流添加一個hadoop集羣specialy?
我希望我的解釋清楚。
Yassir
是的,你可以。請檢查:https://www.inovex.de/blog/247-spark-streaming-on-yarn-in-production/ –