1

我有一個Kafka Streams應用程序,它從少量主題獲取數據並加入數據並將其放入另一個主題中。Kafka Stream重新平衡舊消息

卡夫卡配置:

5 kafka brokers 
Kafka Topics - 15 partitions and 3 replication factor. 

我運行在哪裏我的卡夫卡經紀人正在運行同樣的機器卡夫卡流應用。

每小時消耗/產生幾百萬條記錄。每當我把任何一個卡夫卡經紀人放下時,它會在重新平衡多次之後重新平衡,開始消費非常舊的信息。

注意:當Kafka Streams Application運行良好時,滯後幾乎爲0。但是在重新平衡後,滯後從0變爲10萬。

可以這些是因爲offset.retention.minutes

卡夫卡經紀日誌&偏移保留策略:

log retention policy : 3 days 
offset.retention.minutes : 1 day 

因爲我在下面的鏈接閱讀,這可能是原因:

Offset Retention Minutes reference

在任何幫助,將不勝感激。

+0

如果auto.commit.offset.enable = false,是否提交偏移量? 我應該設置auto.commit.enable = true嗎?它會有什麼影響? –

回答