3
閱讀張量流文本摘要model它聲明「下面描述的結果是基於在多GPU和多機器設置上訓練的模型,它已被簡化爲僅在一臺機器上運行,以實現開源目的。」這是張量流文本彙總的正確指南嗎?
此外引導在該命令被調用:
bazel build -c opt --config=cuda textsum/...
這是否命令不涉及CUDA/GPU?爲什麼這個命令被截斷?
閱讀張量流文本摘要model它聲明「下面描述的結果是基於在多GPU和多機器設置上訓練的模型,它已被簡化爲僅在一臺機器上運行,以實現開源目的。」這是張量流文本彙總的正確指南嗎?
此外引導在該命令被調用:
bazel build -c opt --config=cuda textsum/...
這是否命令不涉及CUDA/GPU?爲什麼這個命令被截斷?
這是一個bazel
命令:--config=cuda
表示「使用了CUDA編譯配置(併產生GPU兼容的代碼)」,並textsum/...
意思是「目錄下的所有目標textsum
」(即命令不截斷,你應該輸入命令時鍵入文字...
)。
生成的代碼是GPU兼容的,但不會在CPU上運行?換句話說,這個模型是否需要與其他tensorflow模型(如word2vec)不同的機器架構? –
一般來說,你應該可以用'--config = opt'替換'--config = cuda',並且爲CPU生成優化的代碼。我不確定文本摘要模型的細節,但對於大多數TensorFlow程序來說,這應該是通用的。 – mrry
bazel可以輸出此警告嗎? 「配置值沒有在任何.rc文件中定義:cuda」 –