如何在不退出的情況下終止本地OSX機器上的Spark shell中的正在運行的進程?Spark:如何在不退出shell的情況下殺死正在運行的進程?
例如,如果我只是在RDD上做一個簡單的.count()
,它可能需要一段時間,有時我想殺死它。
但是,如果我做了Ctrl C
那麼它會殺死整個shell。
有沒有辦法殺死進程而不是shell?
如何在不退出的情況下終止本地OSX機器上的Spark shell中的正在運行的進程?Spark:如何在不退出shell的情況下殺死正在運行的進程?
例如,如果我只是在RDD上做一個簡單的.count()
,它可能需要一段時間,有時我想殺死它。
但是,如果我做了Ctrl C
那麼它會殺死整個shell。
有沒有辦法殺死進程而不是shell?
從火花文檔摘自:
./bin/spark-class org.apache.spark.deploy.Client kill <master url> <driver ID>
鏈接:http://spark.apache.org/docs/latest/spark-standalone.html
然後,如果你想殺死反覆失敗的應用程序,你可以通過這樣做
您可以使用主Web界面殺死或可視化作業。 你還會發現其他的東西,如日誌文件或你的集羣工作圖表...
你使用哪個集羣?紗還是獨立? –
截至2016年8月1日,我確實控制^ C,它只是殺死了命令,而沒有殺死shell。但是,我處於現實世界的羣集中。 – gsamaras
在本地火花外殼上,我無法通過按Ctrl-C來停止流式傳輸作業。我不得不關閉終端窗口! – arun