0
我有一個大的access.log文件,大約有6個月的數據和200K行;我已經使用grokdebug來確保線路被正確過濾等。我在Elastic Search v1.1.1中存儲logstash的輸出。處理一個巨大的access.log文件
我注意到的問題是,只有一個索引正在創建(我運行logstash代理的那一天),其餘的條目被忽略;我曾在Logstash網站上讀過,默認情況下每天有一個索引;但我如何告訴logstash處理整個文件(併爲每一天創建相應的索引)?
任何建議將不勝感激;我已閱讀文檔,但無法找到有關此信息的許多信息,或許我沒有在正確的位置查找。