2016-02-29 85 views
4

我想用Spark讀HBase中的表。我添加以下依賴:找不到spark-hbase mvn dependency

libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT" 

在HBase的website提及,但相關性不能得到解決!

我也試過不同的版本(1.2.0,1.1.2),它沒有工作。

+0

定義「它沒有工作」?你有沒有得到任何錯誤,或者你的代碼沒有達到預期的效果? – randombee

+0

依賴無法解決,我將編輯問題 –

+0

但是,如果你想使用maven,你爲什麼要添加一個SBT依賴?你不應該使用pom.xml文件嗎? – randombee

回答

6

它看起來不像hbase-spark位於maven central,這是默認的存儲庫,將從中檢索依賴關係。

您需要配置您的構建管理工具(不清楚是否使用Maven或SBT)才能使用正確的存儲庫。

project page可以使用

但目前,它看起來像只快照可用。

此外,從下面筆者,行

libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT" 
在評論中提到

實際上應該是

libraryDependencies += "org.apache.hbase" % "hbase-spark" % "2.0.0-SNAPSHOT" 

爲你做任何想不需要在這種情況下,雙重%將scala版本附加到工件名稱。

+0

我正在使用sbt。我試圖將這些網站作爲存儲庫添加到我的build.sbt中。 解析器+ =「Spark-Hbase回購」,位於「https://repository.apache.org/content/repositories/snapshots」 ,但它也不起作用 –

+2

hbase-spark確實有一套完整的工件上傳,包括jar,源代碼,javadocs。你可以在這裏查看:https://repository.apache.org/content/repositories/snapshots/org/apache/hbase/hbase-spark/2.0.0-SNAPSHOT/ – tschaible

+0

這很奇怪,不知道它爲什麼是沒有工作後,我添加存儲庫! –

相關問題