2017-10-20 317 views
0

我剛安裝pyspark 2.2.0使用暢達(在Windows上使用的Python V3.6 7 64位,JAVA V1.8)pyspark:系統找不到指定的路徑

$conda install pyspark 

它下載並似乎安裝正確無誤。現在,當我在命令行上運行pyspark時,它只是告訴我「系統找不到指定的路徑。」

$pyspark 
The system cannot find the path specified. 
The system cannot find the path specified. 

我想包括我的PATH環境變量pyspark路徑目錄,但仍然似乎沒有工作,但也許我給錯誤的道路?任何人都可以請指教。是否需要在PATH環境變量中指定Java路徑?謝謝

回答

1

來自PyPi的PySpark(即與pipconda一起安裝)不包含完整的PySpark功能;它僅用於在已經存在的集羣中使用Spark安裝,在這種情況下,您可能需要avoid downloading the whole Spark distribution。來自docs

Spark的Python包裝並不是要取代所有其他用例。此Python打包版本的Spark適用於與現有羣集(不管是Spark獨立羣組, YARN或Mesos)進行交互的 - 但不包含設置 您自己的獨立Spark羣集所需的工具。您可以從Apache Spark downloads page下載Spark的完整版本 。

如果您打算在PySpark shell中工作,我建議您按照上面所述下載Spark(PySpark是它的重要組件)。

+0

謝謝 - 即使在從頁面下載後仍然無法啓動並運行。是否有必要改變.bashrc中的PATH變量,如[這裏]所述(https://blog.sicara.com/get-started-pyspark-jupyter-guide-tutorial-ae2fe84f594f)? – killerT2333

+0

@ killerT2333一般來說,是的;你會在網上找到幾十篇文章。如果你發現答案有幫助,請接受它(upvotes也歡迎) - 謝謝 – desertnaut

0
export PYSPARK_PYTHON=python3.5 

當我遇到PATH問題時,這對我有用。希望能幫助到你。 如果沒有,請檢查你的配置文件。

相關問題