logstash

    0熱度

    1回答

    的3個實例 我現在有3臺服務器與此卡夫卡集羣設置: bin/kafka-topics.sh --create --zookeeper server1.com:2181, server2.com:2181,server3.com:2181 --replication-factor 3 --partitions 1 --topic kafkatest3 我張貼在Server1上的CMD線這個命令

    0熱度

    1回答

    字符串我這個配置文件中logstash input { \t \t \t redis{ \t \t host => "localhost" \t \t data_type => "list" \t \t key => "vortex" \t \t threads => 4 \t \t type => "testrecord" \t \t

    0熱度

    1回答

    我沒有發現logsatsh的輸出插件的任何適當的文件,用於將數據加載到AWS ES加載,我確實發現 輸出插件只說了HTTP協議。無需指定端口9200,我們可以在AWS ES中加載數據 input { jdbc { jdbc_connection_string => "jdbc:mysql://localhost/elasticsearch" jdbc_

    0熱度

    2回答

    我在Elasticsearch中記錄爲vlabs/usage - 13000條記錄。我能夠從中得出儀表板。 對於相同的索引,我添加了一個新的文檔類型(反饋)作爲vlabs/feedback - 1000記錄。 如何爲反饋記錄繪製單獨的Kibana儀表板。 我可以在發現部分的單個部分中看到兩個doc_type的記錄。

    0熱度

    1回答

    我有以下的JSON語法 {"result": { "entities": { "SERVICE-CCC89FB0A922657A": "service1", "SERVICE-D279F46CD751424F": "service2", "SERVICE-7AB760E70FCDCA18": "service3", }, "data

    2熱度

    1回答

    如何通過Apache Kafka與Logstash連接? 這個問題如何從卡夫卡中解脫出來,像Elasticsearch一樣不可避免地出現。 有沒有人有一個tuto來做到這一點? 謝謝

    1熱度

    1回答

    我使用Logstash將日誌數據發送到Elasticsearch(當然),但是我的一些最終用戶也希望將數據發送到輔助csv文件,以便他們可以執行自己的處理。我正在嘗試使用環境變量來確定是否需要輸出到輔助文件,如果是,那麼該文件應該在哪裏生存。 我Logstash看起來是這樣的: input { . . . } filter { . . . } output {

    1熱度

    1回答

    所以我有一個elasticsearch模板,我通過Filebeat傳遞給ES。我有Filebeat發送到logstash以及...這是相關的東西。 Elasticsearch模板 { "template": "filebeat-*", "mappings": { "product__name": { "properties": { "@timestamp":

    0熱度

    1回答

    運行通過的.deb文件安裝在Ubuntu v5.2.2,沒有改變任何logstash.yml或log4j的配置的,我使用標準 output { stdout { codec => "rubydebug" } } 在我的配置, 但找不到正在寫入的實際行,/var/log/logstash/logstash-plain.log不爲空,但未顯示相關行。 我認爲這與編解

    0熱度

    1回答

    我是logstash的新成員。 我有以下數據 22,10.10.193.170,172.23.3.42,NULL,3740,NULL,NULL,NULL,NULL,1 54,10.35.92.87,172.23.3.41,NULL,10492,NULL,NULL,NULL,NULL,2 28,10.34.20.97,172.23.3.42,NULL,7265,NULL,NULL,NULL,NU