filebeat

    0熱度

    3回答

    我是新來的麋鹿。實際上,我已經在ubuntu 14.04上安裝了Logstash,elasticsearch和kibana。當我嘗試使用我的ubuntu上的現有日誌文件測試ELK時,logstash不會將日誌加載到elasticsearch中並且不顯示任何內容。這是我logstash配置文件:須藤gedit中/etc/logstash/conf.d/logstash.conf input { fi

    3熱度

    1回答

    我正在使用Filebeat將日誌數據從我的本地txt文件發送到Elasticsearch,並且我想從message行添加一些字段到事件 - 如時間戳和日誌級別。例如,下面是我的日誌行之一: 2016-09-22 13:51:02,877 INFO 'start myservice service' 我的問題是:我能做到這一點的Filebeat - > Elasticsearch或者我必須通過Log

    1熱度

    1回答

    我正在嘗試使用Logstash解析日誌文件。Filebeat-從目錄中讀取示例日誌,並通過Logstash將其索引到ElasticSearch中。 (通過Filebeat從目錄中讀取輸入文件,並指定在Filebeat.yml中讀取Logstash作爲輸出,並在logstash配置文件中解析日誌文件,並將結果放入ES中的索引中。) Filebeat .yml #===================

    1熱度

    1回答

    我正在使用Filebeat - > Logstash - > Elasticsearch - > Kibana來概述我的glassfish日誌文件。 你知道我的Logstash過濾器配置有什麼問題嗎? 我的過濾器的配置看起來像: filter { if [type] == "log" { grok { match => { "message", "(?m)\[\#\

    2熱度

    1回答

    嘗試讓Filebeat與logstash一起使用。目前我得到這個錯誤: 2016/11/14 04:54:27.721478 output.go:109: DBG output worker: publish 2047 events 2016/11/14 04:54:27.756650 sync.go:85: ERR Failed to publish events caused by: lum

    0熱度

    1回答

    我已經將Logstash配置爲直接選取文件(Gatling日誌),使用自定義邏輯處理它們,併發送給Elasticsearch。它工作正常。我現在試圖設置Filebeat來將文件發送給它。 基本知識似乎工作,因爲我看到新的entires結束在Elasticsearch,但他們看起來都錯了。我的理論是Logstash被配置爲解析Gatling日誌,但Filebeat不直接發送日誌,而是一些JSON或包

    1熱度

    3回答

    我有以下情形: FileBeat ---->卡夫卡-----> Logstash ----->彈性----> Kibana 在Filebeat我有2個探礦中YML文件,,。並添加一些字段來識別日誌數據。 但是,問題是:在Logstash 我還沒有能夠驗證這個領域。 的配置文件是: 1. filebeat.yml filebeat.prospectors: - input_type: log

    2熱度

    2回答

    我我的應用程序服務器上安裝Filebeat 5.0,並有3個Filebeat勘探者,每個探礦者都指向不同的日誌路徑,並輸出到一個叫myapp_applog卡夫卡的話題,一切工作正常。 我Filebeat輸出配置到一個話題 - 工作 output.kafka: # initial brokers for reading cluster metadata hosts: ["brok

    1熱度

    1回答

    我想從filebeat提供的源值中獲取文件名。 output { if [type] == "wxnumber" { elasticsearch { hosts => "localhost:9200" sniffing => false manage_template => false index => "%{[source]}"

    0熱度

    1回答

    我使用文件節拍從我的節點向logstash發送日誌。 有多種這樣的節點正在使用文件節拍發送日誌到logstash。 基本上我想知道我的節點的公共IP地址,以便我可以在基於地理位置的位置繪製KIBANA中的可視化。因爲我的節點在NAT後面,所以我無法打印IP地址作爲我日誌條目的一部分(例如,syslog條目)。因爲在本地我只知道節點的私有IP。 有沒有什麼辦法可以讓logstash自動知道我的節點的