1
我的數據庫中有大約300萬個文檔。我有這個查詢來獲取最小和最大緯度和經度包含在我的文檔中,因爲在我的應用程序中,我想縮放廣場中包含的現有數據。 需要大約16秒執行:
正方形代表4個座標。 tMin和tMax是我的時間間隔(日期)。
cursor = db.collection.aggregate([
{
"$match":
{
"nodeLoc":{"$geoWithin":{"$geometry":square}}, "t": {"$gt": tMin, "$lt": tMax}
}
},
{
"$group":
{
"_id": {},
"minLat": {"$min": {"$arrayElemAt": [ "$nodeLoc.coordinates", 1]}},
"maxLat": {"$max": {"$arrayElemAt": [ "$nodeLoc.coordinates", 1]}},
"minLon": {"$min": {"$arrayElemAt": [ "$nodeLoc.coordinates", 0]}},
"maxLon": {"$max": {"$arrayElemAt": [ "$nodeLoc.coordinates", 0]}}
}
}
]
)
有沒有一種方法,我可以優化$組或$匹配階段? 我已經在nodeLoc(2dsphere)和t上創建了一個複合索引,但我沒有看到任何改進。
編輯:
我刪除索引,但執行查詢保持相同的時間。
我想避免這種情況。我可能有一千天,所以我懷疑它是有效的,也是一天可以有多達十萬個文件。 – SwissFr
我找到了一個權衡,我用查找和排序做了4個單獨的查詢。例如: cursor = GPSData.find({「nodeLoc」:{「$ geoWithin」:{「$ geometry」:square}},「t」:{「$ gt」:tMin,「$ lt」: tMax}})。sort(「nodeLoc.coordinates.1」,pymongo.ASCENDING).limit(1) 我整體下降到2秒:D – SwissFr
其實我的代碼執行幾次後,現在需要7秒(???) – SwissFr