0
我從Spark download link下載的來源,我一直在使用無法找到pyspark火花組裝1.4.0-hadoop2.6.0.jar
build/mvn -Pyarn -Phadoop-2.6 -Phive -Dhadoop.version=2.6.0 -DskipTests clean package
建,但是當我做jar -tf spark-assembly-1.4.0-hadoop2.6.0.jar |grep pyspark
它沒有顯示任何結果。我在CentOS 6.6上構建它。我創建組裝jar錯了嗎?
我已經看過AWS EMR Spark "No Module named pyspark",看起來他的組裝JAR顯示了一個pyspark類。
阿帕奇星火文檔不會在這個完全清楚(或我可能錯了)
請賜教以下:
- 要上線運行pyspark,並裝配JAR需要包含pyspark上課?
- 如果是,我該如何將它添加到組裝jar?