2016-11-02 71 views
3

與我build.sbt「未解決的依賴」爲Spark 2.0.1在SBT

version := "1.0" 
scalaVersion := "2.11.8" 

// https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11 
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1" 

我試圖讓星火進入我的SBT 0.13的項目,但2016年2月5日的IntelliJ提供了錯誤「未解析的依賴性」。我在做什麼錯誤?

沒有代理,並與工作,如果我說「2.0.0」代替「2.0.1」,但事實並非如此不錯...

另外:它似乎在命令行工作,但不是在IntelliJ中。

+0

添加解析器。查看答案獲得更多信息 – pamu

+0

你有代理嗎?你能解決其他版本的火花?你能解決任何其他依賴的其他版本嗎? –

+0

@JustinPihony:沒有代理。是的,它適用於2.0.0。 – Make42

回答

0

開箱SBT只加載https://repo1.maven.org/maven2/存儲庫,據我所知目前沒有Apache Spark。也許你建立的另一個項目從其他回購中獲取它,現在它使用你本地的常春藤緩存解決?

您可以通過添加另一個行家reporotory到您的項目像解決的問題:

resolvers ++= Seq(
    Resolver sonatypeRepo "public", 
    Resolver typesafeRepo "releases", 
) 

UPDATE:如果你想使用MavenRepository(用它的開箱你),你可以試試添加:

resolvers += "MavenRepository" at "https://mvnrepository.com/" 
+0

感謝您的迴應:-),不幸的是您的解決方案無法正常工作。另外,我很確定我沒有使用SBT構建任何Spark。到目前爲止,我只玩過Jupyter和apache toree內核。順便說一句:https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11看起來像Apache Spark - 即使在2.0.1中也是如此。 – Make42

+0

是的,但默認情況下常青藤使用這個:https://repo1.maven.org/maven2/archetype-catalog.xml。所以你需要添加一些存儲庫。 –

+0

但是對於Scala庫,你可以像''org.apache.spark「%%」spark-core「%」2.0.1「'''%%'''''''''''''''''''''''''' ;) –

0

我目前使用這個build.sbt獲得spark2 depdendencies但似乎我沒有得到任何的代碼失敗的異常SS UCH作爲

C:\ Users \ marco \ SparkExamples \ src \ main \ scala \ MachineLearningExamples.scala:3:object mllib不是包org.apache.spark的成員 [error] import org.apache.spark.mllib.regression .LabeledPoint [error]^ [error] C:\ Users \ marco \ SparkExamples \ src \ main \ scala \ MachineLearningExamples.scala:4:object classification is not a member of package org.apache.spark.ml [error ] import org.apache.spark.ml.classification._ [error]^

這裏是我的build.sbt ....想知道是否有人可以嘗試它來排除本地機器上的sbt問題。感謝

name := "SparkExamples" 
    version := "1.0" 
    scalaVersion := "2.11.8" 
    val sparkVersion = "2.0.1" 


    libraryDependencies += "junit" % "junit" % "4.8" % "test" 
    libraryDependencies ++= Seq("org.slf4j" % "slf4j-api" % "1.7.5", 
         "org.slf4j" % "slf4j-simple" % "1.7.5", 
         "org.clapper" %% "grizzled-slf4j" % "1.0.2") 
    libraryDependencies += "org.apache.spark"%%"spark-core" % sparkVersion 
    libraryDependencies += "org.apache.spark"%%"spark-streaming" % sparkVersion 
    libraryDependencies += "org.apache.spark"%%"spark-mllib" % sparkVersion 
    libraryDependencies += "org.apache.spark"%%"spark-streaming-flume-sink" % sparkVersion  
    libraryDependencies += "org.apache.spark"%%"spark-sql" % sparkVersion 


    resolvers += "MavenRepository" at "https://mvnrepository.com/" 

如果我使用sparkVersion 1.6.0(有小調整的火花流,水槽依賴)一切正常FIE