我一直在Scala,IntelliJ和Spark上訓練自己。 我下載了'org.apache.spark:spark-core_2.10:1.1.1'到我的IntelliJ項目中,並試圖應用一些我在Spark上進行的培訓。我試圖通過使用Scala工作表(首選)或Scala控制檯來測試出想法,讓自己變得簡單。IntelliJ for Windows中的Scala SBT SparkContext錯誤 - 沒有針對'akka.version'的配置設置
代碼片段:
import org.apache.spark
import org.apache.spark._
val sc = new SparkContext("local[2]", "sc1")
當我嘗試創建一個SparkContext,我得到一個錯誤:
在斯卡拉工作表: com.typesafe.config。 ConfigException $ Missing:找不到關鍵字'akka.version'的配置設置
在斯卡拉控制檯: java.lang.NoClassDefFoundError:無法初始化類akka.actor.ActorCell $
我沒有與任何阿卡經驗,我不想阿卡使用。是否需要Spark?我使用錯誤的Scala庫嗎?
我讀了其他同樣的錯誤,但到目前爲止,這些建議沒有幫助。
添加以下的依賴,以我的build.sbt文件: libraryDependencies + = 「org.apache.spark」 %% 「火花核」 % 「1.4.0」
我會很高興回答更多問題。我不確定爲了使這個問題更容易回答還需要添加什麼。
感謝,
大衛·韋伯
你讀過[這](http://stackoverflow.com/questions/31011243/no-configuration-setting-found-for-key-akka-version)? –