我處處尋找,但找不到我需要的答案。我在獨立模式下運行Spark 1.5.2,SPARK_WORKER_INSTANCES = 1,因爲我只需要每個主機的每個工作者1個執行器。我想增加我的工作主機數量,從而增加執行者的數量。我試着在spark-defaults.conf中更改spark.executor.instances和spark.cores.max,仍然看到相同數量的執行程序。人們建議更改--num-executors,與spark.executor.instances不一樣嗎?如何在spark.executor.instances和spark.cores.max不工作的情況下增加Spark Standalone模式下的執行程序數量
這Cloudera的博客文章 http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-2/說:「在--num執行人命令行標誌或spark.executor.instances配置屬性控制要求執行者的數量。在CDH 5.4起/星火1.3,你就可以請使用spark.dynamicAllocation.enabled屬性「 」啓用動態分配來避免設置此屬性,但我不確定spark.dynamicAllocation.enabled是否僅適用於YARN。
有關如何爲Spark 1.5執行此操作的任何建議.2非常感謝!
會嘗試回報,謝謝回答! – kckdqj