我想停止Spark重試Spark應用程序以防發生某些特定異常。如果滿足某些條件,我只想限制重試次數。否則,我需要默認的重試次數。如何控制每個任務/舞臺/作業嘗試的Spark應用程序?
請注意,Spark應用程序只運行一個Spark作業。
我試着在例外的情況下設置javaSparkContext.setLocalProperty("spark.yarn.maxAppAttempts", "1");
,但仍然重試整個工作。
我提交星火應用程序如下:
spark-submit --deploy-mode cluster theSparkApp.jar
我有,我想刪除,如果它是由同一作業的先前重試創建的輸出的使用情況,但未能如果工作輸出文件夾不是空的(在第1次重試中)。你能想出任何其他方式來實現這一目標嗎?
你如何提交部署你的星火應用程序?什麼是使用的命令行選項和Spark屬性?順便說一句,即使你說你的意思是「整個Spark應用程序」,你仍然使用「整個工作仍在重試」。一個Spark應用程序可以運行/提交一個或多個Spark作業。 –
您可否使用'spark-submit --deploy-mode cluster --conf spark.yarn.maxAppAttempts = 1'(並在命令行上使用Spark設置)。 –