2015-02-10 41 views
-2

我創建了一個由8臺機器組成的Spark羣集。每臺機器都有104 GB的RAM和16個虛擬內核。Apache Spark沒有看到我的機器的所有內存

我似乎Spark每臺機器只能看到42 GB的RAM,這是不正確的。你知道爲什麼Spark沒有看到機器的所有內存?

enter image description here

PS:我使用Apache 1.2星火

+0

爲什麼我有3個downvotes?我錯過了什麼嗎? – poiuytrez 2015-02-11 08:21:12

回答

0

星火使得在猜測可用內存沒有嘗試。執行程序使用盡可能多的內存,與您在spark.executor.memory設置中指定的內存一樣多。看起來它設置爲42 GB。

+0

spark.executor.memory被設置爲83971m。 – poiuytrez 2015-02-11 17:52:53

相關問題