1
我一直在訓練我的tensorflow再訓練算法,使用單個GTX泰坦,它工作得很好,但是當我試圖在再訓練的例子中使用多個gpus它不起作用,似乎當我在Nvidia SMI中運行它時只使用一個GPU。爲什麼多GPU的tensorflow再培訓不起作用
爲什麼會發生這種情況,因爲它在從頭開始重新訓練Inception模型時會與多個gpus一起工作,而不是在再培訓期間?
我一直在訓練我的tensorflow再訓練算法,使用單個GTX泰坦,它工作得很好,但是當我試圖在再訓練的例子中使用多個gpus它不起作用,似乎當我在Nvidia SMI中運行它時只使用一個GPU。爲什麼多GPU的tensorflow再培訓不起作用
爲什麼會發生這種情況,因爲它在從頭開始重新訓練Inception模型時會與多個gpus一起工作,而不是在再培訓期間?
即使您設置了--num_gpus
> 1,TensorFlow的鮮花再培訓示例也不能與多個GPU一起使用。它應該支持您記下的單個GPU。
該模型需要修改以並行使用多個GPU。不幸的是,像花再培訓這樣的單個TensorFlow操作目前無法自動分割到多個GPU上。
你能舉例說明如何讓它成爲GPU mp嗎? – oatsy
不幸的是,這超出了SO評論/回答的範圍,但如果你去看TensorFlow多GPU基礎教程並檢查它們的源代碼,那麼有一些很好的起點。 – telemark