2016-02-23 79 views
0

我一直在Scala,IntelliJ和Spark上訓練自己。 我下載了'org.apache.spark:spark-core_2.10:1.1.1'到我的IntelliJ項目中,並試圖應用一些我在Spark上進行的培訓。我試圖通過使用Scala工作表(首選)或Scala控制檯來測試出想法,讓自己變得簡單。IntelliJ for Windows中的Scala SBT SparkContext錯誤 - 沒有針對'akka.version'的配置設置


代碼片段:

import org.apache.spark 
import org.apache.spark._ 
val sc = new SparkContext("local[2]", "sc1") 

當我嘗試創建一個SparkContext,我得到一個錯誤:

在斯卡拉工作表: com.typesafe.config。 ConfigException $ Missing:找不到關鍵字'akka.version'的配置設置

在斯卡拉控制檯: java.lang.NoClassDefFoundError:無法初始化類akka.actor.ActorCell $

我沒有與任何阿卡經驗,我不想阿卡使用。是否需要Spark?我使用錯誤的Scala庫嗎?


我讀了其他同樣的錯誤,但到目前爲止,這些建議沒有幫助。

添加以下的依賴,以我的build.sbt文件: libraryDependencies + = 「org.apache.spark」 %% 「火花核」 % 「1.4.0」

我會很高興回答更多問題。我不確定爲了使這個問題更容易回答還需要添加什麼。

感謝,

大衛·韋伯

+0

你讀過[這](http://stackoverflow.com/questions/31011243/no-configuration-setting-found-for-key-akka-version)? –

回答

0

我過去的這個錯誤,通過更新我的SBT依賴關係:

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.0" 

我也下載org.apache.spark:火花core_2.11- 1.6.0.jar IntelliJ以前在找到maven時只能找到spark-core_2.10-1.1.1.jar。

我仍然無法創建一個spark上下文,但現在我得到了一個不同的錯誤。我將搜索新的錯誤,並在發佈另一個問題之前查看我能找到的內容。

大衛·韋伯

相關問題