我是新來spark.I想使用HiveContext在sparkSQL訪問窗口functions.But我給這個時候,如何使用的Spark與HiveContext
import org.apache.spark.sql.hive.HiveContext
我得到以下錯誤:
error: object hive is not a member of package org.apache.spark.sql
我找到了需要在build.sbt文件中包含以下依賴項的解決方案。
libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.2
但我不知道,我應該在哪裏找到火花 ,我應該改變這種build.sbt文件,
/home/cloudera/spark-1.5.2/build/sbt
(或)
/home/cloudera/spark-1.5.2/sbt/sbt
(或)
/home/cloudera/spark-1.5.2/project/plugins.sbt
請幫幫我在build.sbt文件中添加依賴關係。
那麼,你試圖從頭開始構建Spark? – zero323
是的..我試圖從頭開始構建它。但是在構建之前,我需要在build.sbt文件中添加依賴關係。從哪個文件夾我應該在spark中獲取build.sbt文件? – Revathi