0
當試圖從bin目錄運行腳本spark-shell.cmd時出現此錯誤「無法找到Spark程序集JAR」。我已經下載了Spark的預建版本(1.3.1 for Hadoop 2.6及更高版本),我安裝了java 1.8,並且希望將其安裝在Windows 8.1 x64機器上。 我也安裝了Scala 2.11.6。無法在Windows 8.1上找到Spark程序集JAR
我可以得到一些幫助,爲什麼這可能會發生? 爲了成功運行Spark,需要額外配置哪些配置?