在AWS羣集上運行Spark工作時,我相信我已經正確更改了我的代碼,以便分配數據和我正在使用的算法的工作。但輸出看起來是這樣的:解釋Spark Stage輸出日誌
[Stage 3:> (0 + 2)/1000]
[Stage 3:> (1 + 2)/1000]
[Stage 3:> (2 + 2)/1000]
[Stage 3:> (3 + 2)/1000]
[Stage 3:> (4 + 2)/1000]
[Stage 3:> (5 + 2)/1000]
[Stage 3:> (6 + 2)/1000]
[Stage 3:> (7 + 2)/1000]
[Stage 3:> (8 + 2)/1000]
[Stage 3:> (9 + 2)/1000]
[Stage 3:> (10 + 2)/1000]
[Stage 3:> (11 + 2)/1000]
[Stage 3:> (12 + 2)/1000]
[Stage 3:> (13 + 2)/1000]
[Stage 3:> (14 + 2)/1000]
[Stage 3:> (15 + 2)/1000]
[Stage 3:> (16 + 2)/1000]
我是正確解釋0 + 2/1000作爲唯一一個兩個核心處理器執行的任務,1000一次一個?有5個節點(10個處理器),爲什麼我看不到0 + 10/1000?
我無法進入UI,但我嘗試手動更改這些在我的Java類:conf.set(「spark.cores。最大「,」無限「); conf.set(「spark.dynamicAllocation.enabled」,「true」); – user1518003