2
我試圖創建一個使用pyspark出新的火花背景下,我得到如下:停止所有現有的火花上下文
WARN SparkContext:正在建設中的另一個SparkContext(或扔 在構造函數中的異常) 。這可能表示出現錯誤,因爲 只有一個SparkContext可能在此JVM中運行(請參閱SPARK-2243)。 。 org.apache.spark.api.java.JavaSparkContext:本 其他SparkContext在創建(JavaSparkContext.scala:61)
我沒有任何其他方面活動的(理論上),但也許它沒有正確完成,它仍然存在。我怎樣才能知道是否有其他的或殺死所有現有的?我正在使用spark 1.5.1
您可以嘗試查殺或重新啓動您的Python內核。 – santon
嗨@apeleteiro任何解決方案?我面臨同樣的問題 –