我在IntelliJ IDE中構建我的spark應用程序(scala)時收到錯誤。 這是一個使用Kafka Stream進行進一步處理的簡單應用程序。我添加了所有的jar文件,並且IDE沒有顯示任何未解決的導入或代碼語句。spark,kafka集成問題:對象kafka不是org.apache.spark.streaming的成員
但是,當我嘗試建立神器,我得到兩個錯誤,指出 錯誤:(13,35)對象卡夫卡是不包的成員
org.apache.spark.streaming
import org.apache.spark.streaming.kafka.KafkaUtils
Error:(35, 60) not found: value KafkaUtils
val messages: ReceiverInputDStream[(String, String)] = KafkaUtils.createStream(streamingContext,zkQuorum,"myGroup",topics)
我也有類似的問題,但最的人在投訴時會抱怨這個問題。然而,我落後了一步,只是建立了最終會提交的jar文件。最重要的是,我使用的是IntelliJ IDE,並且有點新,可以用於spark和scala;迷失在這裏。
下面是錯誤的IntelliJ的快照 IntelliJ Error
感謝
奧馬爾
你能指定Spark和Kafka的版本嗎?你確定spark-streaming-kafka jar被添加到你的pom.xml中嗎? – user4342532
其卡夫卡0.10和火花1.6.2。我正在使用SBT所以不知道pom.xml和整個應用程序是使用IntelliJ – omer