logstash

    0熱度

    1回答

    Logstash @timestamp默認爲UTC和字符串類型。我需要在本地和「帶時區的時間戳」類型。我將@timestamp保存到Postgres數據庫中,其中表列包含「帶時區的時間戳」數據類型。如果我嘗試直接保存@timestamp值,則會出現錯誤,指出@timestamp表達式是字符串,而表列期望「帶時區的時間戳」。然後我將列的類型更改爲VARCHAR,並且輸出成功,但存儲在表中的值當然是U

    1熱度

    1回答

    您好我想使用電子郵件plugin.i得到這個錯誤: Cannot create pipeline {:reason=>"Couldn't find any output plugin named 'email' 這是pipeline.conf: output { if "ERROR" in [LEVEL] { elasticsearch { hosts=>"localhost:

    0熱度

    2回答

    我正在嘗試爲我的Web服務日誌監視設置ELK堆棧。 所以我設置了ELK Stack的所有部件。 我正在面對Log-stash中的一個問題。當我運行Log-Stash時,我面臨錯誤,無法加載Java二進制文件 雖然簡單修復它在環境變量中設置了JAVA_HOME。 但我不想設置環境變量,但是我想爲Log-stash設置JAVA_HOME。我已經嘗試在startup.options中添加,但爲了啓用,我

    1熱度

    1回答

    我通過主機ubuntu運行3個docker容器中的ELK堆棧16.04 問題在於配置logstash.conf文件執行命令如「ifconfig」或「netstat - ano「我得到一個錯誤。我logstash.conf文件是: input { exec { command => "netsat -ano" codec => "json"

    0熱度

    1回答

    嗨,我有使用logstash更新彈性的多個記錄的問題。 我logstash配置波紋管 output { elasticsearch { hosts => "******" user => "xxxxx" password => "yyyyyy" index => "index_name" document_type => "do

    0熱度

    1回答

    我想控制一個新的索引應該在我的logstash輸出文件中有多少個碎片。例如: 10 output.conf: output { if [type] == "mytype" { elasticsearch { hosts => [ "1.1.1.1:9200" ] index => "logstash-mytype-%{+YYYY.ww}" w

    0熱度

    1回答

    我的目標是將基於pId的事件組合到logstash中。但是我發現具有相同pId的事件不會被合併爲一個事件。我無法看到添加aggregation.Please幫助 登錄看起來像這樣之後的任何變化: June 1st 2017, 11:51:26.992 {id} {pId} ClassName:methodName:99 [DEBUG] - Received request: June 1st 2

    0熱度

    1回答

    我有一個包含「\ n」的字段的CSV文件。該字段在引號中,所以它在Excel中正確顯示或在Python中使用熊貓。但是,在logstash中使用CSV篩選器無法正常工作,並且會出現CSV分析錯誤或字段錯誤。任何有此經驗的人? 我也在github上看到過這個問題:https://github.com/logstash-plugins/logstash-filter-csv/issues/34但它已經

    0熱度

    1回答

    我有logstash設置發送到Kibana,並標記有兩個自定義字段每個日誌文件 - 羣集和節點: 我想使用「字段相同的兩個字段添加到我的Metricbeat配置「選項,但我這樣做,當談到通過在Kibana字典: 這裏是我使用的Metricbeat配置文件: metricbeat.modules: - module: system metricsets: # CPU stats

    0熱度

    1回答

    因此,基本上我有一個日誌或文本文件,我想要使用ELK進行可視化。我可以在系統上設置elasticsearch和kibana。這是我現在的logstash配置文件。 input { file { path => "G:/everything.log" start_position => "beginning" } } filter { } output {