是否可以完全編程創建一個「Spark MiniCluster」來從Scala程序中運行小型Spark應用程序?我不想啓動Spark shell,而是在我的程序的Main中完全製作一個「MiniCluster」。Spark MiniCluster
1
A
回答
6
您可以創建應用程序並使用本地主在獨立模式下啓動星火:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object LocalApp {
def main(args: Array[String]) {
val sc = new SparkContext("local[*]", "local-app", new SparkConf())
// Do whatever you need
sc.stop()
}
}
你可以做的正是與任何支持的語言同樣的事情。
+0
謝謝!這正是我所期待的。 – Frank
+0
你也可以在python中用類似的API調用來做類似的事情 - 不需要在scala,java或python中實例化一個shell會話。 – ThatDataGuy
相關問題
- 1. HBaseTestingUtility與MiniCluster一起工作嗎?
- 2. 啓動hadoop 2.2.0 minicluster時出錯:java.lang.NoClassDefFoundError:org/apache/hadoop/yarn/server/MiniYARNCluster
- 3. Spark-Cassandra VS Spark-Elasticsearch
- 4. DataBinding Spark RadioButtonGroup Spark SparkButton值
- 5. Spark沒有Spark SQL的HCatalog
- 6. sbt不會組裝Spark Spark
- 7. Spark - 通過屬性spark-submit
- 8. Spark Scala 2.11.8 Spark HbaseConnector錯誤
- 9. Apache Spark vs Apache Spark 2
- 10. Spark數據框:它是否會觸發sql或spark spark?
- 11. Spark GraphX spark-shell vs spark-submit性能差異
- 12. Spark java.lang.VerifyError
- 13. Spark java.lang.NoSuchMethodError
- 14. Spark SQL:NoSuchMethodError:SQLContext.load
- 15. Spark - ClassNotFoundException:org.eclipse.jetty.server.bio.SocketConnector
- 16. Spark OutOfMemoryError
- 17. Spark MapPartitions
- 18. Spark CollectAsMap
- 19. 使用Apache Spark/Spark SQL加入文件
- 20. Spark Launcher無法觸發Spark Job?
- 21. Apache Spark:從Spark Cluster讀取RDD
- 22. Spark Spark待處理批處理
- 23. Spark Spark RDD中的字符串替換
- 24. Apache Spark 2.0.2啓動spark-jobserver時出錯
- 25. Spark MLlib和Spark ML中的PCA
- 26. 將Spark表加載到Spark上 -
- 27. 將spark-jobserver部署到BlueMix Spark節點
- 28. spark-submit:打開'遞歸'(Spark版本2.0.2)
- 29. Spark Streaming + Hbase:NoClassDefFoundError:org/apache/hadoop/hbase/spark/HBaseContext
- 30. spark-java包如何從Scala使用Spark?
那麼,不是Spark獨立羣集? –
不 - 我在命令行上根本不會做任何事情。只需編譯我的Scala程序並在IDEA中運行它。就好像我甚至沒有殼。 – Frank
IDEA編譯你的應用程序,並在後臺運行一個shell進程,儘管 –