我試圖運行spark-submit,並且得到了 「找不到Spark程序集JAR。 您需要在運行此程序之前構建Spark。」 當我嘗試運行spark-shell時,出現同樣的錯誤。 在這種情況下,我必須做些什麼。爲什麼spark-submit和spark-shell會失敗,並顯示「未能找到Spark程序集JAR,您需要在運行此程序之前構建Spark」。
24
A
回答
26
您的Spark包不包含已編譯的Spark代碼。這就是爲什麼你從這些腳本和spark-shell
得到錯誤消息。
您必須從the Spark download page的「選擇軟件包類型」部分下載預建版本之一。
9
嘗試運行mvn -DskipTests clean package
首先構建Spark。
35
在Windows上,我發現如果它安裝在路徑中具有空格的目錄中(C:\ Program Files \ Spark),則安裝將失敗。將其移動到根目錄或另一個沒有空格的目錄。
3
如果您的火花二進制文件位於文件夾名稱中有空格的文件夾中(例如「Program Files(x86)」),則不起作用。我將其更改爲「Program_Files」,然後spark_shell命令在cmd中工作。
+3
這與jurban1997's(3個月大)的答案完全相同。 – melpomene
0
星火安裝:
對於Windows機器:
Download spark-2.1.1-bin-hadoop2.7.tgz from this site https://spark.apache.org/downloads.html Unzip and Paste your spark folder in C:\ drive and set environment variable. If you don’t have Hadoop, you need to create Hadoop folder and also create Bin folder in it and then copy and paste winutils.exe file in it. download winutils file from [https://codeload.github.com/gvreddy1210/64bit/zip/master][1] and paste winutils.exe file in Hadoop\bin folder and set environment variable for c:\hadoop\bin; create temp\hive folder in C:\ drive and give the full permission to this folder like: C:\Windows\system32>C:\hadoop\bin\winutils.exe chmod 777 /tmp/hive open command prompt first run C:\hadoop\bin> winutils.exe and then navigate to C:\spark\bin> run spark-shell
相關問題
- 1. 在運行bin/pyspark時運行此程序錯誤之前,您需要構建Spark
- 2. Spark Cluster驅動程序失敗並顯示錯誤 -
- 3. Spark程序執行失敗,出現NotSerializableException
- 4. 無法在Windows 8.1上找到Spark程序集JAR
- 5. Spark:找到缺失號碼的程序
- 6. 運行Spark SBT應用程序時,爲什麼需要添加「fork in run:= true」?
- 7. 未找到spark驅動程序
- 8. Spark未能與執行程序連接
- 9. 運行後Spark集羣失敗並且未拋出異常
- 10. 爲什麼此cpp程序失敗?
- 11. java.lang.NoClassDefFoundError:org/apache/spark/deploy/SparkSubmit
- 12. 爲什麼將Spark應用程序提交到Mesos失敗,並顯示「Could not parse Master URL:'mesos:// localhost:5050'」?
- 13. 爲什麼不能找到程序集
- 14. 爲什麼Spark應用程序失敗,出現「線程異常」main「java.lang.NoClassDefFoundError:... StringDeserializer」?
- 15. 無法在Scala控制檯導入jar來運行spark程序
- 16. Spark程序需要很長時間才能完成執行
- 17. 爲什麼我的Spark流應用程序如此緩慢?
- 18. 爲什麼spark-ec2失敗並顯示ERROR:找不到任何現有的集羣?
- 19. 驅動程序進程是否可以在Spark集羣之外運行?
- 20. AppVeyor:構建失敗:無法找到NUnit程序集
- 21. 爲什麼我運行java程序時會收到此消息?
- 22. Apache Spark併發程序示例
- 23. Spark Spark和Spark應用程序可以在同一個YARN集羣中運行嗎?
- 24. 爲什麼我的Spark Streaming程序處理速度如此之慢?
- 25. 運行Spark應用程序:堅持Metastore
- 26. 停止運行Spark應用程序
- 27. 爲什麼spark-shell失敗,出現「error:not found:value spark」?
- 28. 爲什麼Spark-xml失敗,NoSuchMethodError與Spark 2.0.0依賴關係?
- 29. 使用已安裝的spark和maven將Spark Scala程序編譯爲jar文件
- 30. 運行此程序需要什麼硬件?
需要更多信息。如何打包您的項目?啓動火花提交命令行.. – gasparms
我通過命令打包它: mvn包 –