我需要將一組URL(50000 - 100000)與數據庫表的記錄進行比較,大約有20,000.000行。我有一些遺留代碼通過將數據庫中的所有數據加載到散列並進行比較來完成此操作。雖然這可行,但它需要在內存方面進行改進(速度目前不是問題)。新數據與大型數據庫記錄的高效比較
我正在考慮的一種替代方法是分割輸入數據(例如按域)並對數據庫執行多個選擇。這可能適用於某些輸入,但不會爲所有內容擴展。
另一種替代方法是爲每個輸入查詢數據庫,而不是將任何數據加載到內存中。恐怕這可能太慢了。
我正在使用mysql。任何人都會遇到像這樣的問題?將所有數據遷移到另一個系統/ dbms是一個選項。
100K可以選擇每如果索引設置正確,形成得足夠快。 – zerkms
我們是否應該假定通過直接的SQL查詢來做到這一點不起作用? –
這是一個選項。我會盡力先做,看看它是如何工作的。我只是想知道在哪裏有一個更有效的方法來做到這一點。 – luis