2016-08-26 64 views
3

閱讀張量流文本摘要model它聲明「下面描述的結果是基於在多GPU和多機器設置上訓練的模型,它已被簡化爲僅在一臺機器上運行,以實現開源目的。」這是張量流文本彙總的正確指南嗎?

此外引導在該命令被調用:

bazel build -c opt --config=cuda textsum/... 

這是否命令不涉及CUDA/GPU?爲什麼這個命令被截斷?

回答

2

這是一個bazel命令:--config=cuda表示「使用了CUDA編譯配置(併產生GPU兼容的代碼)」,並textsum/...意思是「目錄下的所有目標textsum」(即命令不截斷,你應該輸入命令時鍵入文字...)。

+0

生成的代碼是GPU兼容的,但不會在CPU上運行?換句話說,這個模型是否需要與其他tensorflow模型(如word2vec)不同的機器架構? –

+1

一般來說,你應該可以用'--config = opt'替換'--config = cuda',並且爲CPU生成優化的代碼。我不確定文本摘要模型的細節,但對於大多數TensorFlow程序來說,這應該是通用的。 – mrry

+0

bazel可以輸出此警告嗎? 「配置值沒有在任何.rc文件中定義:cuda」 –