我知道有關於lucene加載索引到Ram中的帖子。將整個Solr索引加載到Ram中
Faster search in Lucene - Is there a way to keep the whole index in RAM?
但我真的需要它的Solr,以提高搜索速度。任何指針將有所幫助:) 謝謝
我知道有關於lucene加載索引到Ram中的帖子。將整個Solr索引加載到Ram中
Faster search in Lucene - Is there a way to keep the whole index in RAM?
但我真的需要它的Solr,以提高搜索速度。任何指針將有所幫助:) 謝謝
我不認爲這是一個好主意。這就像要求improve speed in Windows by disabling its swapfile。 Solr在Lucene之上實現了一些非常有效的緩存機制,並且還有文件系統緩存。
如果您遇到Solr速度問題,這不是解決方案。請張貼另一個問題,詳細說明您的問題,並讓我們向您推薦適當的解決方案。
另請參閱:XY Problem
我有36萬條記錄文件,每個文件有5個小字段。我想搜索它們,因爲traingal DB在索引和搜索時失敗了,所以我想到了Solr併成功索引了這些數據。現在我正在嘗試搜索它。總索引文件大小爲5GB。任何我如何觀察,如果我分配超過索引文件大小jvm。緩存不會發生(我可以這麼說,因爲之前分配給jvm的內存較少,所以每個第n個查詢需要5到6秒的時間,我認爲這是因爲緩存中的命中率爲0%,它需要加載)。 – Aditya 2011-04-17 20:34:29
@Aditya:請在新問題中發佈所有這些細節。如果Solr沒有緩存,可能是配置錯誤或查詢錯誤。 – 2011-04-17 21:44:31
查看成立22:8。 – bmargulies 2011-04-17 22:11:17