3
我已經看到此問題How to implement custom job listener/tracker in Spark?並檢查了源代碼以瞭解如何獲取每個作業的階段數,但是有沒有方法可以以編程方式跟蹤已完成的作業的百分比一個Spark應用程序?Spark應用程序中的作業總數
我大概可以獲得聽衆完成的作業數量,但是我缺少將要運行的作業總數。
我想跟蹤整個應用程序的進度,它創造了不少工作,但我找不到任何地方。
@Edit:我知道有一個爲獲得所有應用程序的工作,但一個REST端點:我寧願不使用REST,但得到它的應用程序本身(在AWS EMR運行火花
- /紗線 - 得到的地址可能是可行的,但我寧願不這樣做)
- REST端點似乎只返回正在運行/完成/失敗,因此不是總數的作業。
你有它的用戶界面在:http:// master-host:4040 –
@AvihooMamka我需要以編程方式得到它,我的用戶無法訪問該用戶界面,所以我需要顯示在我的進展應用 –
試試這也許:http://stackoverflow.com/questions/27165194/how-to-get-spark-job-status-from-program –