我想了解這張圖片中的當前Spark情況。如何閱讀Spark UI
它的樣子對我
- 4個工人機93.3 GB的RAM每個
- 應用
pyskark-shell
使用的每一臺機器和32 GB RAM 10個內核在每臺機器 - 應用
backtestin2
用途每臺機器2個或6個內核,每臺機器8個Gb
(注意:我相信有關如何作業均已節點之間分開。)
我的意料
- 應用
pyskark-shell
使用的每一臺機器和32 GB RAM 10個內核在每臺機器每個核心= 320千兆使用總 - 應用
backtestin2
使用16個內核機器之間分割,並且每個核心需要的8 Gb中的每個機器=總128千兆
這是否意味着第每個節點的內存是否在特定應用程序的節點上運行的所有任務之間共享?我雖然認爲conf.set('spark.executor.memory', executor_memory)
應該是每個任務。
理由:
我知道每個任務需要多少內存,但我不知道有多少任務進入執行的每個因此,我不能每次執行內存估計。