我想調整Spark的內存參數。 我想:在Spark中設置「spark.memory.storageFraction」不起作用
sparkSession.conf.set("spark.memory.storageFraction","0.1") //sparkSession has been created
後,我提交作業並檢查星火UI。我發現「存儲內存」仍然和以前一樣。所以上述不起作用。
設置「spark.memory.storageFraction」的正確方法是什麼?
我正在使用Spark 2.0。