我創建了Elastic MapReduce作業,並試圖優化其性能。如何告訴hadoop要分配給單個映射器工作的內存量?
在這一刻,我試圖增加每個實例的映射器數量。我通過mapred.tasktracker.map.tasks.maximum這樣= X
elastic-mapreduce --create --alive --num-instance 3 \
--bootstrap-action s3://elasticmapreduce/bootstrap-actions/configure-hadoop \
--args -s,mapred.tasktracker.map.tasks.maximum=5
每次我嘗試過2%的小實例設置X,初始化失敗,從中我得出結論說,Hadoop的分配800米每個映射任務的內存。對我來說這似乎太過分了。我想它是400米上衣。
我該如何告訴hadoop爲每個地圖任務使用更少的內存?
您可以指定每個JVM應該使用多少內存,但必須在自己的進程中運行每個任務才能執行此操作。 –