我跑在pyspark Python腳本,並得到了以下錯誤: NameError:名字「火花」是沒有定義如何更改Spark設置以允許spark.dynamicAllocation.enabled?
我看着它,發現原因是spark.dynamicAllocation.enabled
不允許呢。
根據Spark的文檔(https://jaceklaskowski.gitbooks.io/mastering-apache-spark/content/spark-dynamic-allocation.html#spark_dynamicAllocation_enabled):spark.dynamicAllocation.enabled
(默認值:false
)控制是否啓用動態分配。假定spark.executor.instances
未設置或爲0(這是默認值)。
由於默認設置是false
,我需要更改Spark設置以啓用spark.dynamicAllocation.enabled
。
我用brew安裝了Spark,並沒有改變它的配置/設置。
如何更改設置並啓用spark.dynamicAllocation.enabled
?
非常感謝。
上面的鏈接不是spark官方文檔。它掌握的也是SO的使用者Jack的Apache Spark Book。請適當更改:) –