什麼是轉儲大(兆兆字節)分貝的最佳方式的TB級?除了mysqldump之外,還有其他更快更有效的方法嗎?這是打算壓縮,解壓縮,然後重新導入另一臺服務器上的另一個MySQL數據庫。導出大型數據庫與數據
回答
如果可以爲你停止數據庫服務器,最好的辦法可能是讓你:
- 停止數據庫
- 執行文件的文件副本(包括適當的事務日誌等)到一個新的文件系統。
- 重新啓動數據庫。
然後將複製的文件移動到新的服務器,並將文件上的數據庫調出。這樣做有點複雜,但這是迄今爲止最快的方法。
我曾經是在MySQL萬億字節+數據庫DBA,這是我們會做數據庫的夜間備份的方式之一。 mysqldump
從來沒有工作過的數據很大。我們每晚都要停止數據庫並且複製底層文件。
當你說mysqldump永遠不會爲數據那麼大,你是什麼意思?它需要太長時間還是什麼? – user121196
'mysqldump'需要數小時 - 也許8-10天或更多,也許幾天 - 才能減少數TB的數據。另外,如果數據在'mysqldump'中被插入到數據庫中,則生成的備份可能不一致。對於非常大的數據庫,'mysqldump'不實用。最好的選擇(不包括商用產品)是磁盤快照,然後停止數據庫並複製文件。 –
因爲你的意圖似乎具有DB的兩個副本,爲什麼不設置複製做到這一點?
這將確保該DB的這兩個副本保持在相同的狀態(在數據方面反正)。
而且,如果你要導出的快照,您可以:
- 等待一個安靜的時間。
- 禁用複製。
- 備份副本。
- 重新啓用複製。
複製一個TB以上的數據庫將花費一段時間。 –
是的,所以將數據庫放到文件副本中:-)複製的優點是數據庫保持活動狀態。而且,一旦你穩定了這兩個副本,禁用/備份/啓用操作應該更快,而且不會停機。 – paxdiablo
@paxdiablo:我的意圖是分配一個大型數據庫到客戶端,所以它需要更便攜,文件複製可能無法正常工作。 – user121196
- 1. 導入/導出大型mysql數據庫
- 2. 從Oracle數據庫導出大數據
- 3. 大型數據庫
- 4. 如何在MAMP上導出/導入大型數據庫
- 5. 導入大型postgresql數據庫
- 6. 快速導入大型數據庫
- 7. Mysql大型數據庫導入
- 8. 導出大蓮花數據庫
- 9. 導入/導出數據庫
- 10. 數據庫數據類型大小
- 11. 使用大型數據庫/數據集
- 12. 與大型數據庫集成的Chatbot
- 13. SSDT與大型零售數據庫?
- 14. Python:將數據從大型csv導入到sqlite數據庫
- 15. 將大型數據集導入數據庫
- 16. 從數據庫導出大量數據到CSV
- 17. PHP:從MySQL數據庫過濾和導出大量數據
- 18. 從數據庫導出數據到HTML?
- 19. 數據庫導出數據和模式
- 20. 從數據庫導出數據
- 21. 帶數據的MSSQL導出數據庫
- 22. C#將大型數據庫導出爲XML
- 23. 如何將大型MySQL數據庫表導出爲excel
- 24. 執行MySQL大型數據庫導出的最佳方法
- 25. 導出大量的數據
- 26. 導出大數據問題
- 27. 新數據與大型數據庫記錄的高效比較
- 28. 大型數據庫處理
- 29. 搜索大型數據庫
- 30. 大型MySQL數據庫
您可以嘗試使用一個客戶端如[SQLyog的(http://webyog.com/en/downloads.php)。有一個選項可以將整個數據庫直接備份到壓縮文件中。 –