2015-01-14 46 views
0

我有一個基本的elasticsearch集羣,我正在使用一條河來索引數據。我想分兩個階段來規劃未來的增長。每秒索引的文件數量可能是瓶頸。如何縮放elasticsearch,它可以每秒索引大量文檔?

  1. 第1階段:索引每秒100個文件到elasticsearch
  2. 2階段:索引每秒10000個文檔轉換成elasticsearch

我應該怎樣做呢?

感謝提前!

編輯:
我想索引的Twitter流。 每個文檔=大約2 KB。 硬件靈活。現在我有磁盤(具有50 GB RAM),但獲得SSD(和更好的配置)並不是什麼大問題。

+1

我會爲此目的使用批量api,但如果您未向我們提供有關您的硬件數據大小或特性以及您想要實現的功能的更多信息,我們將無法爲您提供幫助! – eliasah

+0

@eliasah謝謝。我已經編輯了我的答案,詳細信息... – huhahihi

+0

你在使用Logstash,一條河還是另一個解決方案? – eliasah

回答

1

是來自實驗和製品的幾個亮點:

玩得開心!

相關問題