我有一個火花流Scala的項目,該項目使用Apache NiFi接收器。這些項目在Eclipse/Scala IDE下運行良好,現在我想打包它進行部署。 當我將其添加爲如何Java的依賴關係添加到斯卡拉項目的SBT文件
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
SBT假定它是一個Scala庫,並試圖解決它。
如何母鹿我添加NiFi接收器和它的所有依賴於項目的SBT文件?
此外,是否有可能品脫的依賴到本地目錄,而不是SBT試圖解決?
在此先感謝。
這裏是我的SBT文件的內容:
name := "NiFi Spark Test"
version := "1.0"
scalaVersion := "2.10.5"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" % "provided"
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
您也可以嘗試Maven構建[鏈接](http://stackoverflow.com/questions/32265456/how-to-pre-package-external-libraries-when-using-spark-on-a-mesos-cluster/ 32403191#32403191) – Kaushal