logstash

    0熱度

    1回答

    簡而言之,考慮嘗試從任何計算機上通過Kibana可視化您的數據,但是一旦您進入Kibana儀表板,就會看到0次點擊/結果。 我目前有一個沒有GUI的Linux機器上的Elasticsearch(簡單地更改爲GUI是不允許的)。 我試圖使用Kibana(Windows機器上的Internet Explorer)訪問我的索引。 (./kibana)上運行Kibana,除非啓動(./kibana),否則

    0熱度

    1回答

    如何使用Logstash加載二進制文件(pdf,xls,other ...)並且不更改其內容。 目前,我嘗試用 input { file { path => "C:/path/files/*" type => "gesamt" start_position => "beginning" sincedb_path => "NUL" } } filter

    0熱度

    1回答

    我在同一主機上運行logstash(192.168.56.100)和elasticsearch(192.168.56.100),但elasticsearch只是創建索引而沒有接收數據。我嘗試在不同的主機上運行logstash(192.168.56.101),並且elasticsearch(192.168.56.100)可以接收數據。這是我的elasticsearch和logstash配置 示例數據

    0熱度

    1回答

    我是新來Logstash和我有麻煩了解如何配置以下過程多輸出: 比方說,我想有我logstash收集的鳴叫,在我的ES同時索引的鳴叫和存儲在MongoDB中發佈推文? 我成功地讓我的日誌存儲在ES中收集推文並編入索引,但我不知道如何配置它以將推文存儲在我的mongoDB中? 可能嗎?如何配置它?

    0熱度

    1回答

    我正在與Logstash's Kafka input plugin合作,我沒有看到任何可以指定消費者投票頻率的設置。 如果我檢查consumer configuration我什麼也沒有看到。 它是如何工作的呢? 消費者如何知道何時嘗試提取數據?

    0熱度

    3回答

    我有一個文檔,我想通過現有的唯一「id」字段將其索引到Elasticsearch中。 我從REST API端點(eg.: http://some.url/api/products)以無特定順序獲取文檔數組,並且如果具有_id的文檔已經存在於Elasticsearch中,它應該更新並重新索引文檔。 如果在Elasticsearch中沒有帶_id的文檔存在,那麼我想創建一個新文檔,然後更新文檔,如果它

    0熱度

    1回答

    我想知道logstash是否可以忽略文件的前兩行?我看了很多地方,唯一的解決方案似乎是使用if來檢查行是否是特定的文本,如果是這樣drop ..但這看起來效率非常低,因爲我知道一個事實,我只需要放棄前兩行並且不需要「如果......然後」檢查數百萬或甚至數千行隨後的行。 謝謝。

    0熱度

    1回答

    由於內存限制,我試圖一次又一次地運行多個logstash解析器,我想知道是否有方法檢查logstash實例是否已達到文件集的文件末尾。 一旦此信息出現在日誌文件中,我可以關閉該解析器並啓動另一個集。等等等等。 謝謝。

    0熱度

    1回答

    我已經閱讀過關於filebeat的至少一次投遞的承諾,我的理解是,直到發送的logline的確認沒有被filebeat接收到,該行將被再次發送(在filebeat重新啓動的情況下)。 現在假設,在我的解決方案中,我使用了Filebeat,Logstash和logstash用於過濾的其他組件。過濾後,logstash將該行發送到elasticsearch。 現在,這裏是下面的檢查站,我們可以損失數據

    -1熱度

    1回答

    我們使用Logstash從數據庫讀取新數據並將其發送到Elasticsearch。我們希望這種情況會定期發生,例如每分鐘一次。我們如何定期啓動Logstash?在Linux上做這件事的最佳做法是什麼?