filebeat

    0熱度

    1回答

    我有以下設置: FileBeat - > Logstash - > Elasticsearch - > Kibana(所有5.1.1) 當我把日誌文件(JSON )到Filebeat中,如果我嘗試在Kibana界面中看到它,相同的日誌會被添加3-4次(重複)。 檢查FileBeat日誌後,我才知道這可能是因爲Filebeat沒有收到發送日誌的確認,因此它會一直重新發送。 停止接收重複的文件我想我將

    0熱度

    1回答

    我需要爲我的filbeat/metricbeat進程添加monit檢查器。 我想通過pid文件檢查進程,但是我找不到系統在centos 7中將這些文件存儲在哪裏。 例如,在我本地的ubuntu 14.04下,它存儲在這個路徑下/var/run/filebeat.pid,/var/run/metricbeat.pid。 我試圖在整個系統中找到該文件(find/-name filebeat.pid),

    0熱度

    1回答

    因此,我有一個包含Filebeat和一些其他服務的CentOS Docker鏡像,我嘗試使用Supervisor進行管理。作爲Supervisor配置的一部分,我想啓動Filebeat服務。這裏就是我想在supervisord.conf [program:filebeat] command=/etc/init.d/filebeat start directory=/etc/init.d/ a

    1熱度

    1回答

    我有一個日誌文件,用於打印請求和響應XML主體。該日誌文件還有一些不是XML的其他行。下面的實施例 - =========================================== <request> <data> abc </data> </request> some random lines concerning the processing of req

    0熱度

    1回答

    我想使用GELF佈局(剛剛啓動ELK堆棧進行日誌記錄)的一些ESB日誌使用gelf輸入插件。我成功地通過配置的端口獲取日誌。由於有大約100個應用程序(將繼續添加),有些是WebServices,它們會保持隨地吐痰日誌,所以通過單個端口可以創建任何性能問題或缺少一些日誌,這是可以的嗎?像LS - 文件擊敗有背壓敏感的協議,有沒有像這樣的gelf輸入插件? input { gelf{

    0熱度

    1回答

    我的Tomcat日誌是帶有中文的ANSI編碼(在Windows上)。當我使用filebeat加載這些日誌時,我發現中文亂碼。我該如何處理它? filebeat有一個允許從ANSI編碼加載中文的設置嗎?

    1熱度

    1回答

    所以我有一個elasticsearch模板,我通過Filebeat傳遞給ES。我有Filebeat發送到logstash以及...這是相關的東西。 Elasticsearch模板 { "template": "filebeat-*", "mappings": { "product__name": { "properties": { "@timestamp":

    1熱度

    1回答

    考慮以下用例: 我想從一個特定的日誌行中的信息進行索引到Elasticsearch,作爲文檔X. 我想從一些日誌行的信息進一步下跌的日誌文件被索引到同一個文檔X中(不是覆蓋原始文件,只是增加更多的數據)。 第一部分,我明顯可以用filebeat實現。 對於第二,有沒有人有關於如何處理它的主意?我是否仍然可以在攝取節點上使用filebeat +某些管道,例如? 很顯然,我可以使用ES API更新上述

    0熱度

    1回答

    我生成以下消息。這是由filebeat生成的默認結構。這裏的元數據是嵌套的,我正在尋找一種方法將beat字段重構爲根級,如第二個示例所示。 { "@timestamp": "2017-03-27T08:14:09.508Z", "beat": { "hostname": "stage-kube03", "name": "stage-kube03",

    0熱度

    1回答

    因此,我使用Filebeat在幾種不同的文件類型中進行讀取。我爲每種我正在收穫的文件設置了document_type。我的問題是我想將大多數這些文件類型發送到Logstash,但是我希望將某些類型直接發送到Elasticsearch。 是否可以根據文件類型選擇輸出?我知道允許多個輸出,但是這會將所有數據都發送到elasticsearch和logstash,所以它將被插入Elasticsearch兩