有一個MongoDB有我想研究的有趣數據。不幸的是,由於尺寸問題,每48小時一次,數據庫就會被清除「舊」記錄。攔截或過濾來自MongoDB的oplog事務
我創建一個副本與具有優先級0和表決0,以便不與主數據庫性能干擾次級數據庫系統的設置。這可以很好地工作,因爲我可以查詢輔助數據並獲取我的數據。但是,在很多情況下,我的系統無法及時處理所有記錄,並且如果我在48小時內未找到它們,將會丟失一些舊記錄。
有沒有一種方法,我可以高速緩存的另一個系統,然後我就可以處理我的休閒,可能過濾掉刪除,直到我準備在OPLOG?
我考慮過slavedelay參數,但這會影響所有交易。我還將Tungsten Replicate作爲解決方案進行了研究,以便實際上可以緩存oplog,但是,它們不支持MongoDB作爲數據源。
是純文本格式存儲在次級,這樣我可以閱讀和提取我從中得到想要的OPLOG。
這個任何指針將是有益的,不幸的是我無法找到MongoDB的網站上OPLOG多文檔。
感謝Markus,您提供的信息很有趣。在我的情況下,我不擁有這些數據,我需要輕輕一點。我會建議他們使用到期方式作爲替代方案。至於我的系統,我可以非常快速地獲取他們的數據,但它正在開發中,可能會有很多中斷,因此我將在後面運行並且不想錯過任何數據。 – 2014-10-06 18:42:32