我試圖在Python 11上安裝Apache Spark,並在7月11日發佈中使用了pip install python命令。然而,儘管這種成功安裝,我可以在Python shell中運行Apache Spark與pip安裝不起作用
from pyspark import SparkContext
,我不能運行
pyspark
或火花提交訪問pyspark外殼,
spark-submit.
兩者的錯誤是'找不到指定的路徑'。我在Windows上,懷疑我錯過了JAR文件的火花。 pip安裝不應該照顧這個嗎?
請閱讀http://blog.prabeeshk.com/blog/2015/04/07/self-contained-pyspark-application/ –