2016-12-02 26 views
1

是否可以完全編程創建一個「Spark MiniCluster」來從Scala程序中運行小型Spark應用程序?我不想啓動Spark shell,而是在我的程序的Main中完全製作一個「MiniCluster」。Spark MiniCluster

+0

那麼,不是Spark獨立羣集? –

+0

不 - 我在命令行上根本不會做任何事情。只需編譯我的Scala程序並在IDEA中運行它。就好像我甚至沒有殼。 – Frank

+0

IDEA編譯你的應用程序,並在後臺運行一個shell進程,儘管 –

回答

6

您可以創建應用程序並使用本地主在獨立模式下啓動星火:

import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkConf 

object LocalApp { 
    def main(args: Array[String]) { 
    val sc = new SparkContext("local[*]", "local-app", new SparkConf()) 
    // Do whatever you need 
    sc.stop() 
    } 
} 

你可以做的正是與任何支持的語言同樣的事情。

+0

謝謝!這正是我所期待的。 – Frank

+0

你也可以在python中用類似的API調用來做類似的事情 - 不需要在scala,java或python中實例化一個shell會話。 – ThatDataGuy

相關問題