如何編程keras或tensorflow以劃分多GPU上的訓練,假設您處於一個amaozn ec2實例,其中有8個GPU,並且您希望使用它們全部訓練得更快,但是您的代碼僅適用於單個CPU或GPU?使用多個GPU訓練一個模型
2
A
回答
2
是的,可以在多個GPU上運行Keras模型。這隻能在TensorFlow後端暫時使用,因爲Theano功能還是比較新的。我們正考慮在不久的將來在Theano添加對多GPU的支持(它應該相當簡單)。
使用TensorFlow後端,您可以像使用純TensorFlow一樣完成此任務:在定義Keras圖層時使用with tf.device(d)scope。
最初來自here
+1
作爲對此答案的補充,您可以在以下鏈接中查看答案。我們的想法是爲每個圖層組設置'tf.device('/ gpu:0'):'或'tf.device('/ gpu:1')'等。 https://stackoverflow.com/questions/46366216/tensorflow-is-it-possible-to-manually-decide-which-tensors-in-a-graph-go-to-th –
+0
@DanielMöller:謝謝! –
相關問題
- 1. 當多個GPU用於訓練時,加載預訓練模型失敗
- 2. tensorflow多GPU訓練
- 3. 在兩個GPU上訓練兩個模型
- 4. TensorFlow-Slim多GPU訓練
- 5. 與sklearn平行訓練多個模型?
- 6. 並行訓練多個Auto.Arima模型
- 7. GPU + CPU Tensorflow訓練
- 8. 使用CPU vs GPU來訓練模型 - 速度vs內存
- 9. tensorflow:在一個GPU上訓練網絡,但佔用另一個GPU的空間
- 10. 我們可以使用多gpu traing來恢復由單個gpu訓練的模型嗎?
- 11. 是否可以在一個GPU上一起訓練pytorch和tensorflow模型?
- 12. 使用RapidMiner從多個文件中訓練模型
- 13. 用多種方法訓練多個模型並積累預測
- 14. NLP模型訓練
- 15. caffe中不提供多GPU訓練
- 16. Tensorflow多GPU訓練和可變範圍
- 17. AzureML中每個人的訓練模型
- 18. 如何使用Caffe(pycaffe)在Python中使用多GPU訓練?
- 19. 如何在TFLearn中的一個python模塊中訓練多個模型?
- 20. Tensorflow:使用在另一個模型中訓練的權重,不同的模型
- 21. 是否可以使用GPU訓練H2O模型並使用CPU進行預測?
- 22. 多GPU訓練使用tf.slim需要更多的時間比單GPU
- 23. 使用pascal套件訓練新模型
- 24. Tensorflow:使用預訓練以來模型
- 25. 用keras訓練一個巨大的模型開始
- 26. 如何在訓練深度網絡時有效使用多個GPU?
- 27. 如何使用Keras進行多GPU訓練?
- 28. 重新訓練tensorflow模型
- 29. 如何訓練ML模型?
- 30. 錯誤訓練im2txt模型
這是有點廣泛的這個網站。您要求我們爲您設計解決方案。 https://stackoverflow.com/help/how-to-ask – jdv