我是新來的火花。我已經下載了針對hadoop 2.6版的預編譯的spark版本1.3.1。我解壓縮並導航到該文件夾並在以下命令中鍵入: ./bin/spark-shell 爲此,我收到一條錯誤消息,其中顯示spark-shell命令未找到。我做了使用Git的bash的我得到一個錯誤說窗口相同嘗試運行Spark時出錯
火花提交:第26行tput的命令沒有發現
有別的東西,我需要嘗試運行火花之前做?
我是新來的火花。我已經下載了針對hadoop 2.6版的預編譯的spark版本1.3.1。我解壓縮並導航到該文件夾並在以下命令中鍵入: ./bin/spark-shell 爲此,我收到一條錯誤消息,其中顯示spark-shell命令未找到。我做了使用Git的bash的我得到一個錯誤說窗口相同嘗試運行Spark時出錯
火花提交:第26行tput的命令沒有發現
有別的東西,我需要嘗試運行火花之前做?
在Windows上安裝Maven(MVN),在常規cmd提示符下,使用spark-shell.cmd
。
在Linux上,在終端,cd
你的星火根(你應該命名爲spark-1.3.1-bin-hadoop2.6
如果保持原來的名稱),然後執行:
./bin/spark-shell
你最近有沒有改變你的.bash_profile?任何其他命令的問題?只需輸入例如tar
在你的shell中。所有好還是不好?
編輯(下面的第一個註釋後):
以下是如何啓動REPL上的Linux(只設置錯誤日誌記錄級別)。
Spark
僅僅是一個符號鏈接到星火版本我想用,忽視這一點,把它作爲你的星火主目錄:
而這裏的的Windows:
你幾乎不能做任何錯誤,它是多麼簡單:)
在spark-1.3.1-bin-hadoop2.6中鍵入spark-shell.cmd時出現錯誤,提示'spark-shell.cmd'未被識別爲內部或外部命令。如果我導航到spark-1.3.1-bin-hadoop2.6/bin並輸入相同的東西,我得到一個pathnot發現錯誤。 –
看看圖像。 –
如何回答我問的這些問題? –
提取並導航到該文件夾後,您需要通過這個命令來構建Apache的星火:
mvn -DskipTests clean package
,你需要通過
sudo apt-get install maven
他說這是一個預先構建的版本。 –
在linux中
- 安裝斯卡拉
- 安裝混帳
- 構建星火
構建星火:
$ wget http://archive.apache.org/dist/spark/spark-1.5.0/spark-1.5.0-bin-hadoop2.6.tgz
$ tar xvf spark-1.5.0-bin-hadoop2.6.tgz
$ sudo mv spark-1.5.0-bin-hadoop2.6 /usr/local/spark
$ /usr/local/spark/bin/spark-shell
的 '命令未找到' 錯誤可能,如果你碰巧在Linux嘗試在64位機器上運行32位可執行文件。運行'file。/ bin/spark-shell'和'uname -a'來查看可執行文件是否與你的機器兼容。 – emjay
文件命令只是將其顯示爲c源代碼而不是任何可執行文件 –