我在嘗試開發獨立應用程序apache spark
並排scala sbt
我一次又一次地得到這個錯誤。Apache Spark找不到類
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf at AuctionsApp$.main(AuctionsApp.scala:5)
這是代碼片段。
import org.apache.spark.SparkConf
object AuctionsApp {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("AuctionsApp")
println(conf)
}
}
build.sbt
文件
name := "AuctionsApp"
version := "1.0"
scalaVersion := "2.10.5"
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.2.0-cdh5.3.2" % "provided"
resolvers += "Cloudera Repository" at "https://repository.cloudera.com/artifactory/cloudera-repos/"
我可以按命令導航到SparkConf
文件,並在import
聲明點擊類的名稱,意味着它駐留還有旁邊的其他代碼。
項目建設也是成功的。
任何幫助表示讚賞。
PS。使用IntelliJ Idea CE
版2016.3