2017-06-08 34 views
2

我在Java中寫了一些Spark作業,然後用提交腳本提交了jar。如何停止運行Spark應用程序?

bin/spark-submit --class "com.company.spark.jobName.SparkMain" --master local[*] /tmp/spark-job-1.0.jar 

將有一個服務,並將運行在同一臺服務器上。該服務在收到停止命令時應該停止作業。

我對在服務工作這些信息:

  • SparkHome
  • AppName的
  • AppResource
  • 主URI
  • APP-ID
  • 狀態

有沒有辦法停止在java代碼中運行spark工作。

+0

您可以使用spark的spark-launcher模塊。更詳細的:https://spark.apache.org/docs/2.1.1/api/java/index.html?org/apache/spark/launcher/package-summary.html – Gkan

回答

2

您評論了the REST server並且有能力使用/submissions/kill/[submissionId]?這似乎可以滿足你的需求。

+0

我試圖用Rest Server與「 /提交/殺死/ [submissionId]「請求。我試圖殺死這個工作的應用程序ID,但它不起作用。我如何獲得submissionID? – Gkan

相關問題