filebeat

    0熱度

    1回答

    我目前正在進行PoC ELK安裝,並且想重新發送在Filebeat中註冊的文件的每個日誌行以用於測試目的。 這是我做的: 我停止Filebeat 我刪除Logstash指數通過Kibana 我刪除Filebeat註冊表文件 我開始Filebeat 在Kibana中,我可以看到日誌行數是事件的兩倍,我也可以看到每個事件都被複制過一次。 這是爲什麼? Filebeat日誌: 2017-05-05T14

    0熱度

    1回答

    我已經創建了elasticsearch.The日誌數據filebeat命名的指數正在elasticsearch由filebeat代理髮送。 我想基於一個名爲value_of_type特定的列/字段篩選結果。使用PHP API: $json = '{ "query" : { "bool" : { "filter": [ {

    0熱度

    1回答

    我正在使用ELK 5.3.0。我試圖解析簡單的JSON文檔。它確實可以創建鍵/值,但是它只在Elasticsearch中寫入一個事件。而且它是隨機的。有時是第一個,有時是第二個或第三個。但是總是一個事件。 Filesetup(創建在Mac的每JSON對象一行。),三個事件: { 「時間戳」: 「2012-01-01 2點00分01秒」, 「嚴重性」:「ERROR 「, 」messages「:」Fo

    0熱度

    1回答

    當filebeat到達文件末尾時,是否有方法通知logstash? 例如,它可以發送一個「AT」類型的命令來告訴logstash它已經到達了它的一個文件的末尾嗎?

    0熱度

    2回答

    我正在使用一個java程序來啓動一些工具(logstash,filebeat,mongodb)。我需要安排這些工具,使他們使用Java程序一個接一個地開始。那我該怎麼做這樣的工作呢?安排這種Java程序執行的最佳方式是什麼?

    0熱度

    1回答

    我在filebeat.yml定義的多編解碼器如下面 multiline.pattern: '^%{TIMESTAMP_ISO8601} ' multiline.negate: true multiline.match: after 但它似乎並沒有被工作日誌爲多行獲得附加在一起,就像下面 日誌 2017-05-07 22:29:43 [0] [pool-2-thread-1] INFO c.

    4熱度

    1回答

    您好我有一些問題來解析kubernetes容器多行使用filebeat和logstash。 kubernetes日誌文件位於/var/log/containers/*.log和json行結構中。 有什麼關於我的配置是錯誤的? 我錯過了什麼? filebeat.yml: filebeat: # List of prospectors to fetch data. prospect

    0熱度

    1回答

    Filebeat在我更改elasticsearch的密碼之前工作良好。順便說一下,我使用docker-compose來啓動服務,這裏是關於我的filebeat的一些信息。 控制檯日誌: filebeat | 2017/05/11 05:21:33.020851 beat.go:285: INFO Home path: [/] Config path: [/] Data path: [//data]

    0熱度

    1回答

    我是初學者。我自己的問題是配置FileBeat和Logstash以在CentOS 7上的Elasticsearch中添加XML文件。 我已經安裝了最新版本的filebeat,logstash,elasticsearch和Kibana,並在插件「elasticsearch-head」中獨立顯示內彈性搜索。而測試我安裝,我已經成功地從CentOS系統(在/ var/log/messages中)添加簡單

    0熱度

    1回答

    我使用Filebeat和Logstash將日誌發送到Elasticsearch。我可以在Kibana中看到我的日誌,但根據日誌記錄中的時間戳,日誌未正確排序。 我試圖爲日誌記錄時間戳創建一個單獨的字段dateTime,但它看起來不可能按該列對Kibana中的表進行排序。 Kibana screenshot 可能有人解釋這可能是在這種情況下的解決方案? filebeat filebeat.prosp