我有一個Kafka Streams應用程序,它從少量主題獲取數據並加入數據並將其放入另一個主題中。Kafka Stream重新平衡舊消息
卡夫卡配置:
5 kafka brokers
Kafka Topics - 15 partitions and 3 replication factor.
我運行在哪裏我的卡夫卡經紀人正在運行同樣的機器卡夫卡流應用。
每小時消耗/產生幾百萬條記錄。每當我把任何一個卡夫卡經紀人放下時,它會在重新平衡多次之後重新平衡,開始消費非常舊的信息。
注意:當Kafka Streams Application運行良好時,滯後幾乎爲0。但是在重新平衡後,滯後從0變爲10萬。
可以這些是因爲offset.retention.minutes。
卡夫卡經紀日誌&偏移保留策略:
log retention policy : 3 days
offset.retention.minutes : 1 day
因爲我在下面的鏈接閱讀,這可能是原因:
Offset Retention Minutes reference
在任何幫助,將不勝感激。
如果auto.commit.offset.enable = false,是否提交偏移量? 我應該設置auto.commit.enable = true嗎?它會有什麼影響? –