Spark是否包含在Scala中?如果是,那麼庫/二進制文件在哪裏?
項目配置被放置在project/
文件夾中。我在我的情況下,那就是:
$ ls project/
build.properties plugins.sbt project SparkBuild.scala target
當你做sbt/sbt assembly
,它的下載與其他項目的依賴關係沿着斯卡拉的相應版本。結帳的文件夾target/
例如:
$ ls target/
scala-2.9.2 streams
注意,Scala的版本是2.9.2我。
對於在其他模式下運行Spark(分佈式),我是否需要在所有節點上安裝Scala?
是的。您可以在Spark documentation
描述如果你的代碼依賴於其它項目,你將需要確保他們也存在從節點上創建一個單一的組裝罐子。一種流行的方法是創建一個包含代碼及其依賴關係的組裝jar(或「超級」jar)。 sbt和Maven都有組裝插件。在創建組件jar時,將Spark本身列爲提供的依賴項;它不需要捆綁,因爲它已經存在於從屬設備上。一旦你有一個組裝的jar,將它添加到SparkContext中,如下所示。創建SparkContext時,也可以逐個提交依賴的jar。