你們是如何將數百萬行數據插入SQL Azure的?你是否放棄了索引?插入大型SQL數據和索引
我在完整批次中插入大約1500萬行,表中有多少個索引。我刪除了索引並插入了數據,當我嘗試使用sql查詢重新創建索引時,Sql Management Studio超時(主機斷開連接),因爲在數百萬行上創建索引需要很長時間,並且索引未創建。我仍然有聚集索引。
我應該如何處理這種情況?
你們是如何將數百萬行數據插入SQL Azure的?你是否放棄了索引?插入大型SQL數據和索引
我在完整批次中插入大約1500萬行,表中有多少個索引。我刪除了索引並插入了數據,當我嘗試使用sql查詢重新創建索引時,Sql Management Studio超時(主機斷開連接),因爲在數百萬行上創建索引需要很長時間,並且索引未創建。我仍然有聚集索引。
我應該如何處理這種情況?
在SQL Azure中,您需要保留聚簇索引以便插入數據。 SQL Azure不允許您使用沒有聚簇索引的表,因爲它使用這些來處理備份中數據庫之間的同步。
最近我們一直在移動大量數據,發現SQLBulkCopy是最快的。通過將其與瞬態故障處理框架相結合,可以提高可靠性。
有很多例子可以說明如何實現這一點。
希望這會有所幫助。
我的問題與使用用戶定義TABLETYPE作爲存儲過程的參數得到解決,就像我們可以在這個環節中大量的數據:http://blogs.staykov.net/2011/04/table-valued-parameter-procedures-with.html
我did'nt相信,當我看到的結果。