0
我的火花流的工作是從卡夫卡卡夫卡,因爲它需要大量的時間消耗只有新郵件
KafkaUtils.createStream(jssc, prop.getProperty(Config.ZOOKEEPER_QUORUM),
prop.getProperty(Config.KAFKA_CONSUMER_GROUP), topicMap);
消耗數據,每當我重新啓動我的工作就開始消耗從去年偏移店(我假定這發送處理過的數據,如果我更改消費者組,它會立即使用新消息)
我是kafka 8.1.1其中auto.offset.reset默認爲最大,這意味着每當我重新啓動kafka將發送數據從哪裏我離開了。
我的使用案例要求我忽略這些數據並僅處理到達的數據。我怎樣才能做到這一點? 任何建議
我發現多了一個辦法星火1.5(我測試),使用卡夫卡直接的API和不使用檢查點。 –