2015-05-09 115 views
1

我是新來的火花。我已經下載了針對hadoop 2.6版的預編譯的spark版本1.3.1。我解壓縮並導航到該文件夾​​並在以下命令中鍵入: ./bin/spark-shell 爲此,我收到一條錯誤消息,其中顯示spark-shell命令未找到。我做了使用Git的bash的我得到一個錯誤說窗口相同嘗試運行Spark時出錯

火花提交:第26行tput的命令沒有發現

有別的東西,我需要嘗試運行火花之前做?

+0

的 '命令未找到' 錯誤可能,如果你碰巧在Linux嘗試在64位機器上運行32位可執行文件。運行'file。/ bin/spark-shell'和'uname -a'來查看可執行文件是否與你的機器兼容。 – emjay

+0

文件命令只是將其顯示爲c源代碼而不是任何可執行文件 –

回答

2

在Windows上安裝Maven(MVN),在常規cmd提示符下,使用spark-shell.cmd
在Linux上,在終端,cd你的星火根(你應該命名爲spark-1.3.1-bin-hadoop2.6如果保持原來的名稱),然後執行:

./bin/spark-shell 

你最近有沒有改變你的.bash_profile?任何其他命令的問題?只需輸入例如tar在你的shell中。所有好還是不好?

編輯(下面的第一個註釋後):

以下是如何啓動REPL上的Linux(只設置錯誤日誌記錄級別)。
Spark僅僅是一個符號鏈接到星火版本我想用,忽視這一點,把它作爲你的星火主目錄:

enter image description here

而這裏的的Windowsenter image description here

你幾乎不能做任何錯誤,它是多麼簡單:)

+0

在spark-1.3.1-bin-hadoop2.6中鍵入spark-shell.cmd時出現錯誤,提示'spark-shell.cmd'未被識別爲內部或外部命令。如果我導航到spark-1.3.1-bin-hadoop2.6/bin並輸入相同的東西,我得到一個pathnot發現錯誤。 –

+0

看看圖像。 –

+0

如何回答我問的這些問題? –

-1

提取並導航到該文件夾​​後,您需要通過這個命令來構建Apache的星火:

mvn -DskipTests clean package 

,你需要通過

sudo apt-get install maven 
+0

他說這是一個預先構建的版本。 –

1

在linux中

  1. 安裝斯卡拉
  2. 安裝混帳
  3. 構建星火

構建星火:

$ wget http://archive.apache.org/dist/spark/spark-1.5.0/spark-1.5.0-bin-hadoop2.6.tgz 
$ tar xvf spark-1.5.0-bin-hadoop2.6.tgz 
$ sudo mv spark-1.5.0-bin-hadoop2.6 /usr/local/spark 
$ /usr/local/spark/bin/spark-shell 
相關問題