2015-05-13 26 views
3

我每分鐘都有一個在S3存儲桶中創建的日誌文件。 數據爲「\ x01」分隔。其中一列是時間戳字段。如何使用Logstash解析S3中的數據並推送到Elastic Search,然後推送到Kibana

我想將這些數據加載到彈性搜索中。

我試着用下面的logstash conf。但它似乎並不奏效。我沒有看到任何輸出。我從http://brewhouse.io/blog/2014/11/04/big-data-with-elk-stack.html

Logstash配置文件有一定的參考如下:

input { 
    s3 { 
    bucket => "mybucketname" 
    credentials => [ "accesskey", "secretkey" ] 
    } 
} 
filter { 
    csv { 
    columns => [ "col1", "col2", "@timestamp" ] 
    separator => "\x01" 
    } 
} 
output { 
    stdout { } 
} 

如何修改這個文件採取新文件中的每一分鐘來嗎?

然後,我最終想要連接Kibana到ES來可視化更改。

回答