2017-11-18 189 views
1

我已經安裝了spark版本:spark-2.2.0-bin-hadoop2.7ipython不被識別爲內部或外部命令(pyspark)

我使用Windows 10 OS

我的Java版本1.8.0_144

我已經把我的環境變量:

SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7 

HADOOP_HOME D:\Hadoop (where I put bin\winutils.exe) 

PYSPARK_DRIVER_PYTHON ipython 

PYSPARK_DRIVER_PYTHON_OPTS notebook 

Path是D:\spark-2.2.0-bin-hadoop2.7\bin

當我啓動pyspark從命令行我有這個錯誤:

ipython is not recognized as an internal or external command 

我也試過在jupyter中設置PYSPARK_DRIVER_PYTHON,但是它給了我同樣的錯誤(未被識別爲內部或外部命令)。

請幫忙嗎?

+0

您確定在您的機器中安裝了'jupyter'和'ipython'? – desertnaut

回答

0

在你的機器上搜索ipython應用程序,在我的情況下它是在「c:\ Anaconda3 \ Scripts」中。然後只需將該路徑添加到PATH環境變量

相關問題