2013-12-12 19 views

回答

0

你的數據有多大?

現在,我使用Logstash + ElasticSearch + Kibana分析超過50 GB的日誌數據。

Elasticsearch還與Hadoop集成。
檢查這個鏈接:http://www.elasticsearch.org/overview/hadoop/

+0

大約100-125 GB的數據將在我的服務器上積累一週,我想分析一下。我已經通過你分享的鏈接,這很好。 我正在尋找一些來自你設置的更多見解,比如系統性能的設置,以及你的系統配置。 在Kibana放置各種過濾器時,您是否遇到過任何延遲? –

0

我實際上把HDFS + ElasticSearch + Kibana + Logstash使用Hive工作。它工作得很好。 儘管如果您試圖從ElasticSearch將數據加載到Hive中,但沒有正確聲明數據類型,您可能會在數據上獲得NULL值。

--- Hive Coonection ---
確保es-hadoop-hive-2.0.2.jares-hadoop-2.0.2.jar文件位於您的Hive目錄中。

請按照ElasticSearch網站上的文檔獲取更多詳細信息。

0

125GB(猜測)一週內的1k個文檔大約爲200個/秒,這對任何logstash/elasticsearch配置都是沒有問題的索引。

去弄6個機:

  • 3 elasticsearch數據節點,與每個RAM 64GB。
  • 三臺運行elasticsearch主節點的機器(RAM要求低得多)。這些也可以是客戶端節點(用於索引和搜索請求),並且可以運行logstash,而kibana則可以增強它們的一點點。
相關問題