0
我已經下載了spark-2.0.1-bin-hadoop2.7並安裝了它。我安裝了JAVA,並在系統變量中設置了JAVA_HOME。Apache Spark無法在Windows上運行
如何可以解決嗎?
我已經下載了spark-2.0.1-bin-hadoop2.7並安裝了它。我安裝了JAVA,並在系統變量中設置了JAVA_HOME。Apache Spark無法在Windows上運行
如何可以解決嗎?
我認爲問題在於你的路徑中有空白。
嘗試放置下載的火花,例如。 F:\Msc\BigData\BigDataSeminar\Spark\
同時檢查是否將SPARK_HOME
,JAVA_HOME
和HADOOP_HOME
放置在沒有空格的路徑中。
我認爲這是不正確的!因爲對於JAVA_HOME,我在具有空白的路徑中有'Program Files'。 –
坦克!這是真的。但是另一個問題是'無法在Hadoop二進制路徑中找到winutils.exe'。我該如何解決這個問題? –
這將幫助你 - http://stackoverflow.com/questions/19620642/failed-to-locate-the-winutils-binary-in-the-hadoop-binary-path – VladoDemcak