1
我已經安裝了spark版本:spark-2.2.0-bin-hadoop2.7
。ipython不被識別爲內部或外部命令(pyspark)
我使用Windows 10
OS
我的Java版本1.8.0_144
我已經把我的環境變量:
SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7
HADOOP_HOME D:\Hadoop (where I put bin\winutils.exe)
PYSPARK_DRIVER_PYTHON ipython
PYSPARK_DRIVER_PYTHON_OPTS notebook
Path是D:\spark-2.2.0-bin-hadoop2.7\bin
當我啓動pyspark
從命令行我有這個錯誤:
ipython is not recognized as an internal or external command
我也試過在jupyter
中設置PYSPARK_DRIVER_PYTHON
,但是它給了我同樣的錯誤(未被識別爲內部或外部命令)。
請幫忙嗎?
您確定在您的機器中安裝了'jupyter'和'ipython'? – desertnaut