2015-05-16 31 views
0

我一直試圖在亞馬遜的私有云上​​的乾淨的Ubuntu 14.04機器上設置Hadoop/Spark/Sparkling Water。以根爲目的做一切事情。我成功地獲得了java-6,scala 2.10.5,然後wget和解壓hadoop 2.6,spark 1.2.1和sparkling water 0.2.1-47。乾淨的ubuntu機器上的蘇打水設置

我出口HADOOP_HOME和SPARK_HOME正確的目錄,並運行斌/波光粼粼的殼:

import org.apache.spark.h2o._ 
import org.apache.spark.examples.h2o._ 
val h2oContext = new H2OContext(sc).start() 

有那麼下面開始任務X /完成任務X輸出的巨量,隨後

java.lang.IllegalArgumentException: Cannot execute H2O on all Spark executors: 
    numH2OWorkers = -1" 
    executorStatus = (0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(1,false),(1,false),(1,false),(1,false),(1,false),(1,false),(1,false),(1,false),(0,false),(1,false),(0,false),(1,false),(1,false),(0,false),(1,false),(0,false),(1,false),(1,false),(0,false),(0,false),(1,false),(1,false),(0,false),(0,false),(2,false),(2,false),(1,false),(0,false),(1,false),(0,false),(2,false),(1,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(1,false),(2,false),(0,false),(2,false),(1,false),(0,false),(1,false),(0,false),(1,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(1,false),(0,false),(2,false),(0,false),(2,false),(1,false),(2,false),(1,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(1,false),(2,false),(0,false),(1,false),(0,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(0,false),(1,false),(2,false),(1,false),(2,false),(0,false),(0,false),(1,false),(2,false),(2,false),(1,false),(1,false),(0,false),(0,false),(2,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(2,false),(1,false),(0,false),(2,false),(1,false),(2,false),(0,false),(1,false),(1,false),(2,false),(0,false),(2,false),(2,false),(1,false),(1,false),(0,false),(2,false),(0,false),(1,false),(2,false),(0,false),(1,false),(2,false),(2,false),(1,false),(0,false),(0,false),(2,false),(1,false),(2,false),(0,false),(0,false),(1,false),(2,false),(1,false),(2,false),(1,false),(2,false),(0,false),(1,false),(0,false),(2,false),(1,false),(0,false),(1,false),(2,false),(0,false),(2,false),(0,false),(1,false),(0,false),(1,false),(2,false),(1,false),(2,false) 
at org.apache.spark.h2o.H2OContext.start(H2OContext.scala:112) 
(...) 

有人能指出我可能做錯了什麼和/或失蹤了嗎?如果需要/有幫助,我可以發佈我的精確設置腳本。

+0

你遇到過這個錯誤嗎? - http://stackoverflow.com/questions/31236639/h2o-sparkling-water-error-while-creating-h2o-cloud – PRP

回答

0

我已經通過構建項目而不是下載zip解決了這個問題。目前適用於我的設置(我不認爲它是唯一可用的設置)是:openjdk7,hadoop 2.6,spark 1.2.0。注意HADOOP_HOME和SPARK_HOME必須導出shell變量,並且該機的私有IP必須添加到/ etc/hosts表,這是可以做到的:

echo $(ifconfig eth0 | grep 'inet addr:' | cut -d: -f2 | cut -d' ' -f1) $(hostname) localhost >> /etc/hosts 

然後混帳克隆波光粼粼的水項目和./在項目目錄中建立gradlew。