logstash

    0熱度

    1回答

    我通過ELMA彈性搜索1.3.2。 ELMA安裝程序將ES REST API置於具有SSL和基本身份驗證的Apache反向代理之後。 在單獨的主機上,我試圖設置Logstash 1.4.2將一些信息轉發給ES。我的LS的輸出部分如下: output { stdout { codec => rubydebug } elasticsearch { host => "192

    3熱度

    1回答

    我有這個日誌打印日期的格式,看起來像這樣: = Build Stamp: 10:45:33 On Apr 4 2014 = ,所以我必須運行神交調試器中的過濾器,但是,如何刪除仍然一無所知字在 grok { patterns_dir => "./patterns" match => { "message" => "%{F_TIMESTAMP:timestamp}" } } d

    1熱度

    2回答

    我將彈性搜索作爲ELMA appliance的一部分。本設備通過受基本身份驗證保護的HTTPS提供ES。我有Logstash在單獨的機器上運行。該Logstash需要將日誌數據發送給ES。什麼是正確的輸出配置使用? 感謝您的指點。 -Raj

    0熱度

    1回答

    當我啓動elasticsearch(使用logstash)時,它會佔用100%的CPU。 如果我檢查集羣的狀態,我可以看到 { "cluster_name": "elasticsearch", "status": "red", "timed_out": false, "number_of_nodes": 2, "number_of_data_nod

    2熱度

    2回答

    摘要: 在logstash中使用過濾器,它將從事件字段中讀取值,在外部文件(例如csv)中查找該值並從外部文件比賽。使用來自外部文件的值作爲事件中的額外字段添加。 更多信息: 我有一個事件的日誌文件。事件是這樣的: {"@timestamp":"2014-06-18T11:52:45.370636+02:00","location":{"MainId":3,"SubId":"5"},"EndReq

    2熱度

    1回答

    我想知道logstash度量標準插件的正確示例配置應該如何。 (使用logstash 1.4.2) 的original from the documentation甚至沒有經過configtest :(......所以這是我想出迄今: input { generator type => "generated" count => 10 } } filter

    3熱度

    1回答

    有沒有辦法將logstash(1.4.2)事件拆分爲多個其他事件? 我的輸入是這樣的: { "parts" => ["one", "two"], "timestamp" => "2014-09-27T12:29:17.601Z" "one.key=> "1", "one.value"=>"foo", "two.key" => "2", "two.value"=>"ba

    0熱度

    1回答

    我工作的中央日誌服務器使用兩個Logstash劑,在它自己的screen每個運行: 一個shipper從前端服務器 的indexer收集日誌日誌發送到Elasticsearch 有時候,重新導入一些日誌(失敗時,重新格式化日誌等)可能很有用。爲此,我執行名爲importer的第三個代理,其作業是重新導入舊日誌。 我面臨的問題是我必須監視重新導入過程,直到它完全完成並因此變得可用。 因此,我想知道是

    1熱度

    1回答

    我有一個錯誤,其中當消息屬性包含分層消息數據時,Logstash不會寫入一個解析文檔到elasticsearch。當消息屬性不包含分層數據時,它可以正常工作。下面是一些數據的作品: { "Layer": "Web", "DurationMilliseconds": 65, "CreatedOn": "2014-09-29T20:44:40.5380157Z",

    0熱度

    1回答

    我們使用ELK(ElasticSearch + Logstash + Kibana)堆棧進行日誌管理,但問題在於kibana會單獨顯示每個組件的統計信息。 我想讓多個組件中的事件發生關聯,例如,在tomcat服務器中發生異常,導致客戶使用HTTP 404。 請建議如何實現,如果ELK建議其他開源解決方案無法實現。