我使用EMR 4.1.0 + spark 1.5.0 + YARN來處理大數據。我試圖利用完整的集羣,但是一些YARN沒有分配所有資源。EMR 4.1.0 + Spark 1.5.0 + YARN資源分配
- 使用4×c3.8xlarge EC2從節點(每個60.0 GB內存和32個內核)
- 根據該article我已按照EMR簇
yarn.nodemanager.resource參數.memory-mb - > 53856 yarn.nodemanager.resource.cpu-vcores - > 26 yarn.scheduler.capacity.resource-calculator - > org.apache.hadoop.yarn.util.resource.DominantResourceCalculator (so yarn can管理內存和內核)
然後,我開始pyspark與 pyspark --master紗客戶--num執行人24 --executor內存8347米--executor,核心4
但是RM用戶界面會顯示以下
它只分配21個容器vs請求24個 27 GB保留內存和12個保留核心可用於分配更多3個容器。對?
缺少什麼我在這裏?
謝謝!