grok

    0熱度

    1回答

    因此,我正在做一個網絡流量的數據可視化,並且我在「af模式」下運行packetbeat以收集所有netflow數據。 問題是我連接到帶有packetbeat的盒子上的IP是我想忽略的。因爲我知道它是什麼,它只是在可視化中混淆視聽。 我想忽略所有具有此數據流量的:< XYZ服務器的IP <的> 和 「source.ip」 運行packetbeat的 「dest.ip」> 我在我的packetbeat

    1熱度

    1回答

    我正在嘗試使用下面的配置文件和模式(通過在線教程)解析fail2ban日誌文件。 但是我得到一個grok解析錯誤,任何想法如何解決這個問題? 日誌文件格式: 2017-02-13 18:49:52,567 fail2ban.actions [1365]: NOTICE [sshd] Ban 127.0.0.1 logstash配置: input { file { type

    0熱度

    1回答

    我正在使用filebeat-5.2,logstash-5.2和AWS Elastic Search Service-5.1。 在這裏,我有logstash grok{ match => "\[%{DAY:day} %{MONTH:month} %{MONTHDAY:monthday} %{TIME:time} %{YEAR:year}\]" } mutate { add_fi

    0熱度

    3回答

    IAM sendding此日誌 2017-02-27T13:00:07+01:00 test {"createdAt":"2017-02-27T13:00:07+0100","cluster":"undefined","nodeName":"undefined","nodeIP":"10.11.11.50","clientIP":"10.11.11.72","customerId":1,"iden

    0熱度

    2回答

    我有多行自定義日誌,我正在通過filebeat multiline關鍵字將它作爲一行處理。現在這包括\ n在每行的結尾處。但是,這會導致我的logstsash配置文件中grok解析失敗。有人可以幫助我做到這一點。下面是如何個個看起來像: 請幫我在下面一行的神交過濾器: 2016年11月18日上午3時05分五十秒:\ n錯誤被拋出:\ nEmpty 隊列\ n *******************

    0熱度

    1回答

    面對非常困難神交 hi i am good [anything] hey [another] hii [third] kjkj [fourth] etc 提取在上面的字符串我怎樣才能提取物[什麼]一個領域 已經使用(^.+)(?<thread_name>\[.+\])但它提取的最後一場比賽

    0熱度

    2回答

    所以我寫了一個過濾器,刪除具有某一領域具有null值的任何事件: filter { if[type] == "flow" and [packet_source][ip] == "" { drop { } } } 但是,這是行不通的。有誰知道爲什麼?參數的名稱是正確的 Logstash版本5.2

    0熱度

    1回答

    我使用kibana3,可以觀察更改時間範圍後的行爲,整個頁面不會自動刷新。 需要採取新的鏈接和負載。 如何在時間範圍變化上動態加載?

    1熱度

    1回答

    我想Grok兩個不同的領域,如電子郵件地址和IP。 我做了以下內容: grok {match => [ "message", "%{EMAILADDRESS:username_client}" %{IP:client_ip} ]} 第一位是好的但是 %{IP:CLIENT_IP} 是錯誤的。在「消息」基本上是混合,例如: Whatever whatever 200 300 100 [email

    1熱度

    2回答

    我試圖在日誌中記錄一條消息,但它的失敗與_grokparsefailure,但實際上並沒有說明它失敗的原因。該神交查詢工作在https://grokdebug.herokuapp.com/ input { file { type => "apache-access" path => "C:/prdLogs/sent/*" } filter { g