2017-10-18 31 views
1

我的我的scala代碼在連接到Neo4j的spark上運行。我想測試一下我的Windows機器上,但似乎無法得到它的運行,我不斷收到錯誤:Neo4j Spark連接器錯誤:import.org.neo4j.spark._對象neo4j未在軟件包中找到org

Spark context Web UI available at http://192.168.43.4:4040 
Spark context available as 'sc' (master = local[*], app id = local-1508360735468). 
Spark session available as 'spark'. 
Loading neo4jspark.scala... 
<console>:23: error: object neo4j is not a member of package org 
     import org.neo4j.spark._ 
      ^

其中給出的後續錯誤:

changeScoreList: java.util.List[Double] = [] 
<console>:87: error: not found: value neo 
         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame 
             ^
<console>:120: error: not found: value neo 

不知道我在做什麼錯了,我在執行這樣的:

spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala 

說找到所有的依賴尚未使用新代碼時引發錯誤。不知道還有什麼要嘗試?不知道爲什麼這不適用於我的窗口框和我的Mac。星火2.2版相同,Neo4j的啓動和運行相同版本,斯卡拉過,連渣(除少數小的修改版本差異)

回答

1

這是一個已知issue(有相關的一個here),該fix的是Spark 2.2.1發行版的一部分。

+0

ahh好吧(我以前在windows上工作過),所以我想我需要將這些jar添加到類路徑中作爲解決方法? – Codejoy

+0

我沒有得到最新版本並嘗試過,但我仍然有錯誤。我是否需要手動查找這些罐子並將它們移到我的窗口具有的類路徑中? – Codejoy

+0

@Codejoy:Spark 2.2.1尚未發佈。 – chunjef