最終目標:連接Elasticsearch和kafka,並將ES索引中正在進行的更改事件接收到kafka。從卡夫卡,我有聽衆做進一步處理。ElasticSearch到Kafka事件 - 每次更改時使用Logstash
方法:我使用Logstash輸入和輸出插件。這是配置代碼。
input {
elasticsearch {
hosts => ["localhost:9200"]
index => "liferay-20116"
}
}
output {
kafka {
topic_id => "elastic-topic-index"
codec => json
}
}
它正在工作,但有一個奇怪的問題。
當我收聽kafka時,它會從ES讀取所有文檔,大約176個文檔。
一旦它讀取,它停止一段時間說2秒,然後再讀取整個176文檔!
我不知道是什麼問題,這是由於Logstash行爲還是卡夫卡行事怪異?
任何幫助,將不勝感激!
你要發送,如果匹配查詢收到的文件? 在這種情況下,看看https://www.elastic.co/guide/en/elasticsearch/reference/current/query-dsl-percolate-query.html –