2017-04-19 51 views
0

Code這裏顯示瞭如何設置每個具有使用一個GPU的塔的副本。如何在Distributed Tensorflow Inception V3的每個副本上使用多個GPU?

我目前用於在工作機上使用所有GPU的方式是啓動等於GPU數量的工作人員數量。那麼工人們可以相互溝通,就好像他們不在一臺機器上一樣。這比我能開始控制多個GPU的工作慢。

我想知道是否有辦法改變這個代碼一點點,以利用像這樣的例子在一臺機器上的多個GPU。

回答

0

使用更高級別的庫將有所幫助。 Slim有utilities在多個本地GPU上部署模型。

+0

有分佈式環境的代碼示例嗎?謝謝 – Hsword

+0

從同一個存儲庫,請參閱https://github.com/tensorflow/models/blob/master/inception/inception/inception_distributed_train.py –

+0

此代碼顯示如何設置每個副本,其中有一個塔只使用一個GPU 。但我想在每個工作人員上使用多個GPU。 – Hsword

相關問題