2015-09-10 55 views
-2

Python的吐出一個錯誤,當我嘗試導入火花:爲什麼Python導入時不能識別spark?

import pyspark.context 

和錯誤是

Traceback (most recent call last): 
    File "<pyshell#N>", line 1, in <module> 
    import pyspark.context 
ImportError: No module named pyspark.context 

我加入以下我.bashrc文件,我重新運行的終端,太:

export SPARK_HOME="/Users/<username>/Downloads/spark-1.4.0" 
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH 

SPARK_HOME的路徑是前述/bin/pyspark的路徑,它包含的文件夾python,因爲它應該。

我的PYTHONPATH似乎是正確的,但因爲我可以導入numpy等等。可能是什麼問題呢?

+0

請問爲什麼爲downvotes? – Hunle

回答

0

嘗試加載pyspark編程:

import sys 
try: 
    sys.path.append("/Users/<username>/Downloads/spark-1.4.0/python/") 
    from pyspark import context 
    print ("Successfully imported Spark Modules") 
except ImportError as e: 
    print ("Can not import Spark Modules", e) 
+0

這是一個好主意,但它不是一個永久的解決方案? – Hunle

+0

這個工作,當然,因爲你手動添加它作爲一個路徑。這是一個好主意,但它不是一個永久的解決方案?我認爲我可以通過這樣做永久添加目錄:'export PYTHONPATH = $ SPARK_HOME/python /:$ PYTHONPATH' – Hunle

相關問題