如果我使用Spark 1.6.2,Scala 2.10和spark-streaming-kafka_2.10
,我可以從Scala代碼中使用來自Kafka 0.10.1.0的消息嗎? (有一個遠程機器,包含Kafka 0.10.1.0,Inter Broker協議版本:0.10.1.0和Scala 2.11)。還是暗示我應該使用Spark 2. *?Kafka 0.10是否與Spark 1.6.2兼容?
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka_2.10</artifactId>
<version>1.6.2</version>
</dependency>
我讀了一些論壇這個文本,它混淆了我很多:
Kafka 0.10 support is only coming with Spark 2.0 on Scala and Java workloads
例如,使用消息,斯卡拉不處理卡夫卡隊列參數(經紀人名單,動物園管理員IP等),但它只是直接發送給卡夫卡,解釋他們。這是對的嗎?在這種情況下,爲什麼Kafka 0.10不支持Spark 1.6.2?
UPDATE:
從this thread據我所知,這是可以使用卡夫卡,我在POM規定(見上文),以便從卡夫卡0.10.1.0消耗的消息,但不知道。 Kafka client
是什麼意思?這是否意味着在遠程服務器上安裝了Kafka(即Kafka 0.10.1.0),還是這意味着我在POM中指定了我的Kafka?
只是爲了確保我能正確理解它:如果在遠程集羣上安裝了Kafka 0.10.1.0和Scala 2.11,建議不要使用來自這個集羣使用Scala 2.10的主題,對吧?請注意,我的客戶代碼在AWS機器上執行,而不是在運行Kafka集羣的機器上執行。 – Dinosaurius
哦,在這種情況下,它可能沒問題。 – Fang