capped-collections

    2熱度

    1回答

    db.events.update( {upload:0}, {$set:{upload:1}}, {multi:true} ) 即使我只是用另一個整數替換整數,我仍然收到以下錯誤。 Cannot change the size of a document in a capped collection: 402 != 406

    2熱度

    1回答

    我使用一些mongoDb收集日誌,所以我想使用MongoDb封頂收集。 我可以使用phaclon集合來做它,或者我應該在我的日誌模型中編碼日誌旋轉?

    0熱度

    1回答

    我最近正在研究時間序列數據項目來存儲一些傳感器數據。爲了實現最大的插入/寫入吞吐量,我使用了capped collection(根據mongodb文檔上限集合將會提高讀/寫性能) 。當我測試集合插入/寫入使用python驅動程序的一千個文件/記錄與無正常集合索引的capped集合時,我看不出在正常集合上寫入集合的寫入性能有很大的改進。例子就像我使用pymongo驅動程序在單線程中插入40K記錄。加

    0熱度

    1回答

    缺省情況下,在_id字段上使用_id字段的自動索引的原因是什麼?我們可以在docs找到: 沒有這種索引開銷,封頂集合可以支持更高的插入吞吐量。 有一個post約加蓋收集插入性能和我自己的測試也表明,刀片加蓋收集沒有索引是最快的選項,然後正常收集去,和最慢的選項加蓋收集與索引。那麼爲什麼汽車索引在版本2.2中與_id字段一起添加,如果它達到了性能,而在某些情況下,封頂集合被提議作爲正常集合的快速替代

    0熱度

    2回答

    我想了解封頂集合是什麼,特別是在MongoDB的上下文中,以及與隊列相比有什麼區別?

    1熱度

    1回答

    我試圖用Mongoid創建一個capped集合。我有一個定義如下: class Customer include Mongoid::Document store_in(collection: 'customers') field: n, type: String, as: :name field: a, type: String, as: :address

    0熱度

    1回答

    當試圖創建一個MongoDB封頂集合時,只限制文檔的最大數量而不是大小限制(不知道所有文檔的大小) ,pymongo是給錯誤 pymongo.errors.OperationFailure: specify size:<n> when capped is true 運行 db.create_collection('helloworld', capped=True, max=86400) 後

    0熱度

    1回答

    我創建了一個capped集合來存儲我的日誌數據,只有很少的字段。由於某些要求,我想在此集合中添加一個名爲「createAt」的附加字段。 db.myLogs.update({},{$set: {"createAt":new Date()}}) 這是拋出以下錯誤: WriteResult({ "nMatched" : 0, "nUpserted" : 0, "

    4熱度

    1回答

    我試圖使用Node.js(使用本地MongoDB驅動程序)在MongoDB中設置和更新某些加蓋的集合。 我的目標是,在運行app.js時,將文檔插入到加蓋集合中,並更新封頂集合中的現有文檔。這兩個都在setInterval()上運行,所以每隔幾秒鐘。 我的問題: 我想創建一個集合,如果集合不存在,但如果這樣做我想將文檔插入它來代替。什麼是檢查這個的正確方法? 帶上限的集合,我應該甚至在插入任何內容

    0熱度

    1回答

    設置限制所以,有兩個限制我想在盟DB設置: 1只允許一個文件被插入到DBS,並沒有更多的。這個文件一旦添加就不能刪除,但可以修改。此外,沒有其他文件可以添加到該集合。 該模式下只允許有一個值。 { "_id" : ObjectId("5800"), "seconds" : "120", "__v" : 0 } 不允許再添加新的秒數,只有上述文檔可以修改。 我曾嘗試: var numbersSc