我已經可以從Eclipse IDE提交local
Spark作業(用Scala編寫)。但是,我想修改我的Spark上下文(在我的應用程序中),這樣當我'運行'該應用程序(Eclipse內部)時,作業將作爲資源管理器使用Yarn發送到遠程羣集。從Eclipse和Spark上提交Spark應用程序作爲紗線作業上下文
使用,我可以成功地將作業提交到集羣: spark-submit --class <main class> --master yarn-cluster <jar>
我想實現在IDE中相同的結果。 我SBT配置(應用程序根目錄)看起來像: libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1" libraryDependencies += "org.apache.spark" %% "spark-yarn" % "1.5.1" % "provided"
內我的應用程序: val conf = new SparkConf().setAppName("xxx").setMaster("yarn-cluster")
不過,我收到以下錯誤:
Detected yarn-cluster mode, but isn't running on a cluster. Deployment to YARN is not supported directly by SparkContext. Please use spark-submit.