運行Apache星火我installed包spark-2.0.2-bin-without-hadoop.tgz上的本地DEV框,但未能run它下面,無法不Hadoop的
$ ./bin/spark-shell
NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
$ ./sbin/start-master.sh
NoClassDefFoundError: org/slf4j/Logger
我有沒有誤解的火花可能低於旋without Hadoop?
「我需要的Hadoop運行星火? 沒有,但是如果你在集羣上運行,你將需要某種形式(例如,NFS安裝在每個節點上的相同路徑)共享文件系統。如果你有這種類型的文件系統,你可以在獨立模式下部署Spark。「
感謝編輯@ cricket_007 :) –
我後來意識到,這不是一個精確的引用:)隨時回滾 –
Nah - 它足夠接近以保證報價,呃?! :) –