我試圖在Spark 2.1.0上運行飛艇和python3(3.5)中的pyspark。我已經得到了pyspark外殼並與python3運行,但在翻過到齊柏林連接到同一本地集羣提供了:在Spark 2.1.0上使用python3在齊柏林飛艇上使用pyspark
Exception: Python in worker has different version 3.5 than that in driver 2.7, PySpark cannot run with different minor versions
我修改了默認spark-env.sh如下:(略去了未修改線)
SPARK_LOCAL_IP=127.0.0.1
SPARK_MASTER_HOST="localhost"
SPARK_MASTER_WEBUI_PORT=8080
SPARK_MASTER_PORT=7077
SPARK_DAEMON_JAVA_OPTS="-Djava.net.preferIPv4Stack=true"
export PYSPARK_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/python3
export PYSPARK_DRIVER_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/ipython
盯着事情./bin/pyspark
和所有的在外殼。
齊柏林配置已飛艇-site.xml中被修改僅移動UI端口遠離8080到8666`zeppelin-env.sh」已被修改如下:(僅示出MODS /添加)
export MASTER=spark://127.0.0.1:7077
export SPARK_APP_NAME=my_zeppelin-mf
export PYSPARK_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/python3
export PYSPARK_DRIVER_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/ipython
export PYTHONPATH=/Library/Frameworks/Python.framework/Versions/3.5/bin/python3
我試過使用蟒蛇,但蟒蛇3.6目前正在創造Spark的問題。另外,我已經使用了一組上述配置設置的w/o成功組合。
配置中引用的設置zeppelin.pyspark.python
默認爲python
,但從文檔中不清楚如何/在哪裏將其調整爲python3。爲了幫助消除OSX細節,我也能夠在LinuxMint 18.1上覆制這個故障。
- OSX上運行本地10.11.6
- Spark是2.1.0彬hadoop2.7
- 齊柏林0.7.0彬所有
所以我一直膛線通過Zeppelin文檔和互聯網試圖找到適當的配置設置讓Zeppelin以3.5驅動程序運行。希望我失去了一些明顯的東西,但我似乎無法跟蹤這一個。希望有人成功地做到了這一點,並可以幫助識別我的錯誤。
謝謝。