logstash

    1熱度

    1回答

    我正在使用logstash-rss輸入插件在elasticsearch中爲rss提要編制索引,但是我得到了文本和html標記,而我只想獲取文本而不是html標記。 任何人都可以說我應該使用哪個過濾器插件以及如何過濾它?

    1熱度

    1回答

    在logstash中,我試圖將數據發送到kafka以及ES。在ES中,數據以與rubydebug所示相同的格式發送(在應用過濾器和添加新字段後基本上是json數據)。我想發送相同的數據給卡夫卡。但是logstash只發送原始消息給kafka。 (我不會修改原始信息)。 是否可以發送相同的數據到我們發送給ES的kafka(json格式)?

    1熱度

    1回答

    我從JDBC輸入有以下事件或行。 {"academic_session_id" : "as=1|dur=2015-16,as=2|dur=2016-17", "branch_id" : 1} 我想轉換或格式化成以下使用logstash過濾器... {"branch_id": 1,"sessions":[{"as":"1","dur":"2015-16"},{"as":"2","d

    1熱度

    1回答

    我想Grok兩個不同的領域,如電子郵件地址和IP。 我做了以下內容: grok {match => [ "message", "%{EMAILADDRESS:username_client}" %{IP:client_ip} ]} 第一位是好的但是 %{IP:CLIENT_IP} 是錯誤的。在「消息」基本上是混合,例如: Whatever whatever 200 300 100 [email

    0熱度

    1回答

    我正在使用elkb來處理我的訪問日誌。有一天,我發現kibana錯過了一個日誌。 然後,grep的filebeat日誌,而且我能找到丟失的日誌: 2017/03/01 10:19:20.096711 client.go:184: DBG Publish: { "@timestamp": "2017-03-01T10:19:16.327Z", "beat": { "ho

    0熱度

    1回答

    我使用Twitter的輸入抓取從Twitter數據和輸出中-Elasticsearch將其存儲在elasticsearch ,我在Ubuntu OS時使用Logstash 5.2.1我運行它通過以下錯誤 [2017-03-02T08:18:45,576][ERROR][logstash.outputs.elasticsearch] Retrying individual actions [201

    0熱度

    1回答

    我最近重新安裝我的ELK堆到雲服務器,而不是本地框,我遇到了與Kibana問題擺。 一切設置正確,正在從Elasticsearch創建了索引(你可以看到他們的http://<ip-of-ELK>:9200/_cat/indices?v命令。Kibana 爲,顯示了一個索引。 這裏是發生了什麼事我第一次得Kibana: 正常的頁面出現了以輸入一個指數來表示 我filebeat- *類型,然後打造成

    1熱度

    2回答

    我試圖在日誌中記錄一條消息,但它的失敗與_grokparsefailure,但實際上並沒有說明它失敗的原因。該神交查詢工作在https://grokdebug.herokuapp.com/ input { file { type => "apache-access" path => "C:/prdLogs/sent/*" } filter { g

    0熱度

    1回答

    因此,我想從某個時間以來獲取所有事件,例如自"2017-03-02T21:56:53.033Z"以來。 我做了一個runtime_timestamp字段,它只是複製了@timestamp字段,因爲我將這些數據解析到C#中,並且@符號在那裏播放不好。 這是我的Logstash過濾器,它工作。我知道這是一個事實。 filter { mutate { add_field => [

    0熱度

    2回答

    這是Apache Access_log的logstash配置: input { file { path => "/var/log/http.log" } } filter { grok { match => { "message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %