logstash

    0熱度

    1回答

    我正在爲切換日誌寫一個grok模式。我沒有得到如何忽略 「%」 字符組成的日誌 「」 %DAEMON-3-SYSTEM_MSG 「」 完善的日誌是 - 7月16日21時06分五十秒%DAEMON-3-SYSTEM_MSG :/mnt/pss/ntp.drift中的非分析頻率

    0熱度

    2回答

    剛剛接觸ELK 5.1.1 stack,我有幾個問題只是爲了我的理解。 我已經用標準分析儀/過濾器基本設置了這個堆棧,並且一切都很好。 我的數據源是使用Logstash索引的MySQL後端。 我想處理包含口音的查詢,並希望asciifolding令牌過濾器可以幫助實現這一點。 首先我學會了如何創建自定義分析器並保存爲模板。 現在,當我查詢這個URL http://localhost:9200/_t

    0熱度

    1回答

    我嘗試使用grok過濾器匹配日誌文件的日誌級別,但仍得到_grokparsefailure。問題可能是[和日誌級別之間的空間。日誌的 例如:2017年4月21日10:12:03004 [INFO]消息 我的過濾器: filter { grok { match => { "log.level" => "\[ %{LOGLEVEL:loglevel}\]"

    2熱度

    1回答

    # database [email protected]:~/ELK/database$ sudo sqlite3 data.db SQLite version 3.8.2 2013-12-06 14:53:30 Enter ".help" for instructions Enter SQL statements terminated with a ";" sqlite> create

    1熱度

    1回答

    我試圖處理Nginx的訪問日誌與Logstash的幫助(2.1.3版) 論Nginx的訪問日誌中找到不同的端點的基礎上,我想送數據在不同的隊列中,或者有時在不同的RabbitMQ服務器中。 這是我的Logstash配置: input { stdin {} } filter { grok { match => { "message" => "(?<status>.*?)!

    0熱度

    1回答

    我使用ELK棧Kibana索引圖案中,我已經在logstash 我已經建立2個索引 用戶 員工 使用JDBC輸入 這兩個指標都有同一列objid Logstash配置文件 input { jdbc { jdbc_driver_library => "/opt/application/cmt/ELK/logstash-5.3.0/ojdbc14.jar" jdbc_dr

    0熱度

    1回答

    嘗試從aws Cloudwatch提取日誌時出現以下異常。請讓我知道如何讓插件工作。 logstash版本:5.1.1 CloudWatch的輸入插件版本:2.0.0 10:51:06.452 [[主要] 「AWS /日誌」,指標=> [ 「IncomingLogEvents」],過濾器=> {「LogGroupName」=>「test」},id =>「5d5114c61b58d374e42e44

    1熱度

    1回答

    我嘗試從兩個MySQL表格(作業數據和位置)導入作業廣告,但是當工作廣告有多個位置時我遇到問題。我使用這個MySQL查詢: SELECT id, company, jobtitle, description, priority, DATE_FORMAT(date, '%Y-%m-%d %T') AS date, sa_locations.location AS location_name, sa_

    0熱度

    1回答

    我正在嘗試使用ELK堆棧,並且這麼好。我有一個小問題,我正在努力解決。 我有一個名爲'message'的字段來自filebeat。該字段內部是一個包含數據記錄的字符串。 有時,消息字段可能包含此行: successfully saved with IP address: [142.93.111.8] user: [[email protected]] 我想申請一個過濾器,所以logstash發

    0熱度

    1回答

    我正在使用logstash從日誌文件中提取數據。我希望從java程序中調用logstash。我怎樣才能執行這樣的任務?