0
Code這裏顯示瞭如何設置每個具有使用一個GPU的塔的副本。如何在Distributed Tensorflow Inception V3的每個副本上使用多個GPU?
我目前用於在工作機上使用所有GPU的方式是啓動等於GPU數量的工作人員數量。那麼工人們可以相互溝通,就好像他們不在一臺機器上一樣。這比我能開始控制多個GPU的工作慢。
我想知道是否有辦法改變這個代碼一點點,以利用像這樣的例子在一臺機器上的多個GPU。
有分佈式環境的代碼示例嗎?謝謝 – Hsword
從同一個存儲庫,請參閱https://github.com/tensorflow/models/blob/master/inception/inception/inception_distributed_train.py –
此代碼顯示如何設置每個副本,其中有一個塔只使用一個GPU 。但我想在每個工作人員上使用多個GPU。 – Hsword