6
A
回答
1
嘗試在以下位置使用make_parallel函數: https://github.com/kuza55/keras-extras/blob/master/utils/multi_gpu.py (它只能與tensorflow後端一起使用)。
0
Keras現在擁有(自v2.0.9起)跨設備並行度的內置支持,使用keras.utils.multi_gpu_model
。
目前只支持Tensorflow後端。
在這裏很好的例子(文檔):https://keras.io/getting-started/faq/#how-can-i-run-a-keras-model-on-multiple-gpus 這裏還涉及:https://datascience.stackexchange.com/a/25737
相關問題
- 1. tensorflow多GPU訓練
- 2. 如何訓練Keras LTSM多維輸入?
- 3. TensorFlow-Slim多GPU訓練
- 4. 如何使用Caffe(pycaffe)在Python中使用多GPU訓練?
- 5. Keras LSTM不訓練
- 6. GPU + CPU Tensorflow訓練
- 7. CNTK:從numpy陣列創建MinibatchSource以進行多GPU訓練
- 8. 在TensorFlow中進行多GPU訓練的優勢是什麼?
- 9. 如何使用訓練好的Keras模型進行新的預測?
- 10. caffe中不提供多GPU訓練
- 11. Tensorflow多GPU訓練和可變範圍
- 12. 生成keras訓練數據
- 13. Keras訓練稀疏模型
- 14. Keras:用aray作爲輸入進行訓練
- 15. 多GPU訓練使用tf.slim需要更多的時間比單GPU
- 16. 當多個GPU用於訓練時,加載預訓練模型失敗
- 17. 是否可以使用GPU訓練H2O模型並使用CPU進行預測?
- 18. 使用TensorFlow進行增量訓練
- 19. 使用keras ImageGenerator訓練多輸入模型
- 20. 如何使用Keras的ModelCheckpoint繼續訓練模型
- 21. 培訓多輸入Keras NN與批處理訓練數據
- 22. 使用多個GPU訓練一個模型
- 23. 如何在keras中同時訓練多個神經網絡?
- 24. 加載訓練有素的Keras模型並繼續訓練
- 25. 在keras中使用GPU進行多處理
- 26. 如何在訓練深度網絡時有效使用多個GPU?
- 27. 如何在tf.learn中使用input_fn進行批量訓練?
- 28. 如何使用堆疊自動編碼器進行預訓練
- 29. 保存訓練模型在Keras
- 30. Keras - 獲得訓練層的權重