1
A
回答
0
當您提到「將大量數據集合到內存中」時,我明白您正嘗試將所有數據一次加載到內存並開始訓練。因此,我根據這個假設給出了答覆。
一般的想法是,如果你不能將數據適合你的資源,將數據分成更小的塊並以迭代的方式進行訓練。
1-逐個加載數據,而不是一次加載所有數據。如果您創建的執行工作流爲「加載數據 - >培訓 - >發佈數據(這可以由垃圾收集器自動完成) - >重新啓動」,您可以瞭解需要多少資源來訓練單個數據。
2-使用小批量。只要從#1獲得資源信息,就可以輕鬆計算出最小批量的大小。例如,如果訓練單個數據消耗1.5 GB的RAM,並且GPU有8 GB的RAM,理論上可以一次訓練5號小批量。
3-如果資源不足以訓練1個單一批次,在這種情況下,您可能會考慮增加PC容量或降低型號容量/層數/功能。或者,您可以選擇雲計算解決方案。
相關問題
- 1. 深入瞭解json數據
- 2. 深入瞭解SQL
- 3. MySQL |海量數據插入
- 4. 海量數據入門
- 5. 深入瞭解Windows Phone
- 6. 深入瞭解jQuery承諾
- 7. 從SQL服務器導入海量數據集到HDF5
- 8. C#海量插入數據結構
- 9. 優化插入海量數據
- 10. 處理海量數據量
- 11. 美國地圖深入瞭解ASP.NET
- 12. 深入瞭解Siebel本地環境
- 13. Javascript .slice方法(更深入的瞭解)
- 14. 深入瞭解Realm的工作原理?
- 15. 深入瞭解IBM Cognos中的報告
- 16. 呈現海量數據
- 17. SQL統計海量數據
- 18. 海量數據庫和mysql
- 19. Rails更新海量數據
- 20. 海量MySQL數據庫
- 21. 處理海量數據的數據庫
- 22. 數據挖掘海量數據
- 23. 如何深入理解引用變量
- 24. 瞭解深度反轉
- 25. SQL/C# - 多階段查詢,海量數據集
- 26. 如何處理結構化海量數據集?
- 27. 發送海量數據-java解決方案
- 28. 海關URL /深層鏈接
- 29. WordPress視頻海量導入
- 30. 優化海量MySQL插入
是[亞馬遜MXNet](https://aws.amazon.com/mxnet/)對於您想實現的目標可能感興趣的東西? –