1
我不會「大數據」 :)ELK卡夫卡和Hadoop
我的情況是一對夫婦的EC2實例比生產日誌專家。
這些日誌基本上是Syslog和應用程序事件(自定義日誌)。
我想使用ELK堆棧來捕獲日誌,應用過濾器和顯示數據。
在某些情況下,我想將自定義事件發送到專用隊列系統(rabbitMQ)以處理數據(推薦引擎)。
我的問題是,爲什麼我應該使用像Kafka和Hadoop這樣的工具,如果基本上,我想用24h保留解析日誌,並使用Debian中的日誌旋轉功能移動它們?
非常感謝您的幫助!和對不起我的英語不好^^
它聽起來並不像你需要Kafka或Hadoop來獲取數據到ELK部分。有Logstash的插件可以將系統日誌中的數據導入ES。 –
對不起,可能這個問題似乎很愚蠢,但在所有教程中,我已經看到他們在ELK堆棧前使用Hadoop或Kafka。 – Dario
您不需要Kafka進行點對點集成,但大多數人會使用它來提供多個下游接收器,並同時用它替換RabbitMQ以提供推薦引擎。 –