2015-03-03 55 views
4

我很努力的火花添加到我的Python路徑:無法火花添加到PYTHONPATH

(myenv)[email protected] /home/me$ set SPARK_HOME="/home/me/spark-1.2.1-bin-hadoop2.4" 
(myenv)[email protected] /home/me$ set PYTHONPATH=$PYTHONPATH:$SPARK_HOME:$SPARK_HOME/python:$SPARK_HOME/python/build:$SPARK_HOME/bin 

(myenv)[email protected] /home/me$ python -c 'import sys; print(sys.path)' 
['', '/home/me/.virtualenvs/default/lib/python2.7', '/home/me/.virtualenvs/default/lib/python2.7/plat-x86_64-linux-gnu', '/home/me/.virtualenvs/default/lib/python2.7/lib-tk', '/home/me/.virtualenvs/default/lib/python2.7/lib-old', '/home/me/.virtualenvs/default/lib/python2.7/lib-dynload', '/usr/lib/python2.7', '/usr/lib/python2.7/plat-x86_64-linux-gnu', '/usr/lib/python2.7/lib-tk', '/home/me/.virtualenvs/default/local/lib/python2.7/site-packages', '/home/me/.virtualenvs/default/lib/python2.7/site-packages'] 

(myenv)[email protected] /home/me$ python -c 'import pyspark' 
Traceback (most recent call last): 
    File "<string>", line 1, in <module> 
ImportError: No module named pyspark 
+0

的[如何安裝pyspark在獨立腳本中使用?(可能的複製http://stackoverflow.com/questions/25205264/how-添加下面的命令do-i-install-pyspark-for-use-in-standalone-scripts) – ksindi 2016-12-31 15:18:04

回答

0

我想你混淆了PYTHONPATHsys.path。但是你確定你需要修改PYTHONPATH如果你有pyspark正確安裝?

編輯:

我還沒有使用pyspark,但這會有幫助嗎? importing pyspark in python shell

+0

pyspark已安裝。我可以在shell模式下運行它,但我無法使用IDE調試代碼 - 我得到了ImportError。 – thecheech 2015-03-03 10:55:49

+0

@cheeech這是因爲你沒有在你的IDE中設置正確的Python解釋器。顯然你使用的是env,那麼你應該把你的virtualenv作爲你的項目解釋器。 – laike9m 2015-03-03 10:57:19

+0

env解釋器在IDE中設置。這個問題在IDE外部(我在命令行上運行python命令)。 – thecheech 2015-03-03 10:59:42

5

我有同樣的問題,但this幫助。

就在你的.bashrc

export SPARK_HOME=/path/to/your/spark-1.4.1-bin-hadoop2.6 
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$PYTHONPATH 
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.8.2.1-src.zip:$PYTHONPATH 
+0

https://stackoverflow.com/questions/40808064/pyspark-append-executor-environment-variable – mathtick 2018-02-26 19:05:17