我是新來spark.I想使用HiveContext在sparkSQL訪問窗口functions.But我給這個時候, import org.apache.spark.sql.hive.HiveContext
我得到以下錯誤: error: object hive is not a member of package org.apache.spark.sql 我找到了需要在build.sbt文件
我已經用sbt-assembly(下面)得到了着名的SLF4J類名碰撞錯誤。 SLF4J在這方面是病理性的docs do say,在某些方面保持了一點模糊。無論如何,這發生在一個具有很多依賴的項目中,並且現在還不清楚應該怎樣計算哪些類可以被丟棄以避免碰撞而不會在運行時崩潰。 [error] (project-name/*:assembly) deduplicate: different file
我想設置一個簡單的akka -http 2.4.2項目來測試它,但我沒有這樣做。 我built.sbt: import NativePackagerHelper._
lazy val akkaVersion = "2.4.2"
lazy val root = (project in file(".")).
settings(
name := "akkTest",
version :