3
我每分鐘都有一個在S3存儲桶中創建的日誌文件。 數據爲「\ x01」分隔。其中一列是時間戳字段。如何使用Logstash解析S3中的數據並推送到Elastic Search,然後推送到Kibana
我想將這些數據加載到彈性搜索中。
我試着用下面的logstash conf。但它似乎並不奏效。我沒有看到任何輸出。我從http://brewhouse.io/blog/2014/11/04/big-data-with-elk-stack.html
Logstash配置文件有一定的參考如下:
input {
s3 {
bucket => "mybucketname"
credentials => [ "accesskey", "secretkey" ]
}
}
filter {
csv {
columns => [ "col1", "col2", "@timestamp" ]
separator => "\x01"
}
}
output {
stdout { }
}
如何修改這個文件採取新文件中的每一分鐘來嗎?
然後,我最終想要連接Kibana到ES來可視化更改。