我正在設置Apache Spark
羣集以執行實時流式計算,並希望通過跟蹤批量大小,批處理時間等各種指標來監控部署的性能。我Spark Streaming
程序寫入Scala
Spark Streaming - 獲取批次級別的性能統計信息
問題
- 的Spark monitoring REST API說明列出了各個端點可用。但是,我找不到公開批次級別信息的終端。有沒有辦法讓已經運行的應用程序和其他每批次的詳細信息,如所有Spark批次列表如下:
- 每批事件數
- 處理時間
- 調度延遲
- 退出狀態:即批是否被成功處理
- 如果批處理級API不可用,可以通過向Spark流程程序添加自定義工具來獲得批處理級統計信息(例如:大小,處理時間,計劃延遲等)。
由於提前,
關於2.這個答案可能有助於http://stackoverflow.com/questions/41980447/in-spark-streaming-is-there-a-way-to-detect-when-a-batch-has-finished/ 41981256#41981256 – ImDarrenG