0
我有一些簡單的logstash配置:_grokparsefailure不帶過濾
input {
syslog {
port => 5140
type => "fortigate"
}
}
output {
elasticsearch {
cluster => "logging"
node_name => "logstash-logging-03"
bind_host => "10.100.19.77"
}
}
完蛋了。問題是,最終在elasticsearch中發現的文檔確實包含_grokparsefailure:
{
"_index": "logstash-2014.12.19",
...
"_source": {
"message": ...",
...
"tags": [
"_grokparsefailure"
],
...
},
...
}
怎麼回事?沒有(grok)過濾器...
你是如何調用Logstash的?如果你通過'-f'傳遞一個目錄,那個目錄是否包含任何其他文件? –
我想我只是提出這個問題:系統日誌輸入已經在內部做了一些高爾基的東西。由於我想收到的日誌沒有syslog格式,我得到了這些標籤...我嘗試通過udp/tcp輸入並在此處發佈更新來實現它... – sontags