我正在使用獨立羣集模式1.5.2。Spark忽略SPARK_WORKER_MEMORY?
儘管我在spark-env.sh
中設置了SPARK_WORKER_MEMORY
,但它看起來像忽略了這個設置。
我在bin/sbin
下的腳本找不到-Xms/-Xmx
設置的任何指示。
如果我使用ps
命令工人pid
,它看起來像內存設置爲1G
:
[[email protected] spark-1.5.2-bin-hadoop2.6]$ ps -ef | grep 20232
hadoop 20232 1 0 02:01 ? 00:00:22 /usr/java/latest//bin/java
-cp /workspace/3rd-party/spark/spark-1.5.2-bin-hadoop2.6/sbin/../conf/:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/spark-assembly-1.5.2-hadoop2.6.0.jar:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/datanucleus-api-jdo-3.2.6.jar:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/datanucleus-rdbms-3.2.9.jar:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/datanucleus-core-3.2.10.jar:/workspace/
3rd-party/hadoop/2.6.3//etc/hadoop/ -Xms1g -Xmx1g org.apache.spark.deploy.worker.Worker
--webui-port 8081 spark://10.52.39.92:7077
火花defaults.conf:
spark.master spark://10.52.39.92:7077
spark.serializer org.apache.spark.serializer.KryoSerializer
spark.executor.memory 2g
spark.executor.cores 1
spark-env.sh:
export SPARK_MASTER_IP=10.52.39.92
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=12g
我錯過了什麼嗎?
謝謝。
我做我的星火第一步,希望我措辭是正確的:我有5個節點集羣,而不是由紗/ mesos管理,它不是獨立的集羣模式嗎?我確實將SPARK_WORKER_MEMORY設置爲12G,它確實在web ui中報告爲12g,但從命令行看來,jvm僅配置爲1G,正如您可以在問題的ps輸出中看到的一樣。 – Seffy
您正在羣集模式下運行,因此您正在使用以下設置:spark://10.52.39.92:7077 –
不確定我明白。鑑於原來的問題更新,我使用正確的設置?爲什麼ps仍然會報告1G? – Seffy