logstash

    0熱度

    1回答

    我需要一個任務來解析和組合exim_mainlog for ELK。 問題是下一: 我logstash多插件不會收集與唯一的消息ID日誌文件的行成一個事件。 當我嘗試按正確順序發送4個字符串時,它的效果很好。 訂購這樣的: 2017-04-10 00:00:30 1cxKsn-0001GB-2t CTAS=IN RefID= (ISpam= IFlags=v=2.2 cv=Op4/823t c=1

    0熱度

    1回答

    使用Logstash從CSV文件中導入彈性搜索文檔後,我的文檔將其ID值設置爲長字母數字字符串。我如何將每個文檔ID設置爲數字值? 這裏基本上是我logstash配置是什麼樣子: input { file { path => "/path/to/movies.csv" start_position => "beginning" sincedb_path

    0熱度

    1回答

    我有filebeat發送文件到Logstash。 我在logstash裏面有一些過濾器。它看起來像這樣: filter { if [message] =~ /user/{ mutate { gsub => ["message", "user \[(.*?)] was", "user [] was"] } } } 它基本上刪除用戶數據,因爲我

    1熱度

    1回答

    後臺環境: logstash使用microsoft jdbc驅動程序連接到具有集成安全性的sql server。 當JRuby的到達PsychParser.java在「分析」的方法,它拋出一個錯誤: <Psych:: SyntaxError: (<unknown>) 'reader' unacceptable character ' ' (0x0) special characters are n

    0熱度

    2回答

    我在配置logstash時遇到問題。我希望能夠爲mongodb輸入jdbc。 我的配置: input{ jdbc{ jdbc_driver_library => "mongo-java-driver-3.2.2.jar" jdbc_driver_class => "com.mongodb.MongoClient" jdbc_connection_str

    0熱度

    1回答

    我想麋鹿堆棧,到目前爲止好:) 我已經跑到怪現狀regardgin的解析日期字段,並把它發送到ElasticSearch。我設法解析這個字段,它真的是在ElasticSearch中創建的,但它總是以字符串結尾。 我嘗試了許多不同的組合。我也嘗試了許多不同的東西,人們建議,但我仍然失敗。 這是我的設置: 是來自Filebeat的字符串: [2017年4月26日九時40分33秒] security.D

    3熱度

    1回答

    我是Java開發人員&對Ruby沒有任何意見 - 但我正在嘗試編寫一個logstash插件,可以幫助我將timeuuid轉換爲時間戳(MM/dd/yyyy-HH:毫米:SS.SSS)。 下面是它的Java版本。 import java.util.Date; import java.util.UUID; public class TimeUUID { static final l

    2熱度

    3回答

    我在我的日誌中有一組信息。它採用JSON格式。 { "someField":"someValue", "columns":"[colName1, colName2, colName3, ... colNameN]", "someField":"someValue" } 我想這將被存儲爲在同一字段columns陣列。 我想要顯示的用例是有多少用戶使用了名爲colN

    0熱度

    1回答

    我一直在遇到這個問題,我得到failed to find geo_point field [location] 這是我的流程。 導入CSV input { file { path => "test.csv" start_position => "beginning" sincedb_path => "/dev/null" } } fil

    0熱度

    2回答

    我想配置logstash以下輸入 - nginx的訪問,nginx的錯誤以下的自定義模式下面& &日誌是logstash.conf input { beats { port => 5044 codec => multiline { # Grok pattern names are valid! :) pattern => "^%{TIMESTAMP_