2017-03-24 65 views
-3

我嘗試導入如何添加spark作爲maven depenency?

import org.apache.spark.api.java.JavaDoubleRDD;

,但我不能找到它mvnrepository.com,我怎麼可以添加的pom.xml這種依賴?目前我有

<dependencies> 
    <dependency> 
     <groupId>org.apache.spark</groupId> 
     <artifactId>spark-core_2.10</artifactId> 
     <version>2.1.0</version> 
    </dependency> 
</dependencies> 

但這顯然是不夠的。

+0

你有什麼問題? –

+0

它在mavenrepository上:https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10/2.1.0 –

+0

也許刷新你的項目?我知道在intelliJ有一個選項來重新加載mvn代碼,不知道其他IDE的。正如@MatthiasFax所說,它在mvnrepository上,並且你的pom.xml似乎很好 – Jules

回答

-1

其實它在那裏,你可以找到它:

https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10

我使用sbt和工作正常:

libraryDependencies + =「組織。 apache.spark「%」spark-core_2.11「%」2.0.1「%」provided「

我相信版本2.10的maven等價配置就夠了。

+2

SBT可能不是Java應用程序的首選。而且,你的例子顯示了錯誤的Scala構建(2.11)和Spark版本(2.0.1)。 –

+0

感謝您的回覆:-)。我鏈接到問題中指定的版本,但sbt config中的版本是我正在使用的版本,它不一樣。 – shizhz

相關問題