我正在嘗試讀取spark(〜100GB大小)中的大型hbase表。Yarn Spark HBase - ExecutorLostFailure YARN因超過內存限制而死亡的容器
星火版本:1.6
星火提交參數:
spark-submit --master yarn-client --num-executors 10 --executor-memory 4G
--executor-cores 4
--conf spark.yarn.executor.memoryOverhead=2048
Error: ExecutorLostFailure Reason: Container killed by YARN for exceeding limits. 4.5GB of 3GB physical memory used limits. Consider boosting spark.yarn.executor.memoryOverhead.
我已經嘗試設置spark.yarn.executor.memoryOverhead
到100000
。仍然收到類似的錯誤。
我不明白爲什麼火花不會溢出到磁盤如果內存不足或是YARN導致問題在這裏。