2

在CPU上,文本編碼(https://github.com/tensorflow/models/tree/master/research/textsum)運行完美。 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L149 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L217 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L228在GPU上運行tensorflow文本模型

型號還是會被訓練有素的CPU,但再次:

爲了更快的訓練,我已經改變了 「CPU」 到 「GPU」 在以下4線運行在GPU代碼,而不是在GPU上。 (我使用nvidia-smi進行了檢查)

請讓我知道是否有其他需要更改以在gpu上進行訓練。

回答

0

修改這個代碼行會幫助你在人才培養模式上的GPU

textsum/seq2seq_attention.py

# change this line 
# tf.app.flags.DEFINE_integer('num_gpus', 0, 'Number of gpus used.') 
tf.app.flags.DEFINE_integer('num_gpus', 1, 'Number of gpus used.') 

textsum/seq2seq_attention_model.py

# if self._num_gpus > 1: 
#  self._cur_gpu = (self._cur_gpu + 1) % (self._num_gpus-1) 
self._cur_gpu = (self._cur_gpu + 1) % (self._num_gpus-1 if self._num_gpus > 1 else self._num_gpus) 

參考問題link