我使用Azure的數據工廠從Azure的數據存儲湖的數據複製到宇宙DB的集合。我們將在數據湖中有幾千個JSON文件,每個JSON文件都是大約。 3 GB。我正在使用數據工廠的複製活動,並且在初始運行時,使用默認設置將一個文件加載到集羣設置爲10000 RU/s和數據工廠需要3.5小時。現在我已經將它擴展到50000 RU/s,將cloudDataMovementUnits設置爲32,並將writeBatchSize設置爲10以查看它是否提高了速度,並且同一文件現在需要2.5小時才能加載。加載成千上萬個文件的時間仍將長久存在。如何從Azure的數據副本湖加快宇宙DB
有沒有辦法以更好的方式做到這一點?
你是說你試圖將單個文檔加載到大小爲GB的Cosmos中?宇宙中文件的最大尺寸是2MB –
不,如果我不清楚,對不起。每個文件都包含數百萬個JSON文檔。JSON文檔包含位置數據,我們需要進行空間計算,這就是我們選擇Cosmos DB的原因。 –