-1
A
回答
0
每個分割20億個文檔的數量是有限的,這是hard Lucene limit。
實際值是Integer.MAX_VALUE - 128
這就是每個分片的2147483519
文件。
雖然詢問有關文件數量可能是一個現實問題,但查看最大數量的索引是錯誤的問題。可能存在JVM限制,假設某種數組或ArrayList包含這些索引(或索引映射 - 集羣狀態),那麼限制將是數組的大小或ArrayList/HashSet/Map的大小等。
在達到理論極限之前,您的羣集可能已經死亡,甚至無法啓動。每個分片正在使用資源,即使只有一個主分片,集羣狀態也會很大。正確的問題是詢問集羣的性能問題,而不是考慮集羣中索引的最大數量。
相關問題
- 1. MySQL資源限制
- 2. Bintray資源限制
- 3. 限制資源行動
- 4. 限制資源路線
- 5. 臨時表資源限制
- 6. Windows上的資源限制?
- 7. 語言限制資源.resx
- 8. docker-compose v3限制資源
- 9. kineticjs和iOS資源限制
- 10. 在Moodle中限制資源
- 11. 使用ACL限制CakePHP中資源ID對資源的訪問
- 12. 如何限制apache2的資源?
- 13. 如何使嵌套資源受限制
- 14. 解析服務器資源限制
- 15. 如何限制AWS資源消耗?
- 16. IBM DB2 「已達到(AGENT_STACK_SZ)資源限制」
- 17. 限制使用FHIR中的資源
- 18. Woocommerce API限制和尤斯資源少
- 19. 泊塢窗機資源限制
- 20. 如何限制CPU資源/ Shockwave Flash
- 21. 限制WCF服務資源的使用
- 22. JAX-RS和資源所有權限制
- 23. kubernetes /瞭解CPU資源限制
- 24. 限制對RESTful資源的訪問
- 25. Istio限制訪問Google雲資源
- 26. 限制泊塢窗守護CPU資源
- 27. Qt是否有資源系統限制?
- 28. Android資源數量有哪些限制?
- 29. bigquery資源受限制,因訂單
- 30. 在wsgi中限制系統資源