2017-03-06 59 views
1

我在通過Eclipse使用Spark SQL程序時面臨以下問題。爲什麼Eclipse給「對象sql不是包org.apache.spark的成員」?

代碼線

import org.apache.spark.sql.{Row, SparkSession} 

給出:

對象SQL不是包的成員org.apache.spark

SBT文件細節

name := "SparkXXSql" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" %% "spark-core_2.11" % "2.0.0" % "provided" 

libraryDependencies += "org.apache.spark" %% "spark-sql_2.11" % "2.0.0" % "provided" 

resolvers += Resolver.mavenLocal 

回答

1

如果不是拼寫錯誤,那麼這是因爲您的依賴關係實際上沒有解決。當你添加%%時,scala版本會自動附加到模塊,所以你真的解決了spark-core_2.11_2.11和spark-sql_2.11_2.11。嘗試刪除%%或顯式_2.11並重新加載您的依賴關係。

相關問題