在CPU上,文本編碼(https://github.com/tensorflow/models/tree/master/research/textsum)運行完美。 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L149 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L217 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L228在GPU上運行tensorflow文本模型
型號還是會被訓練有素的CPU,但再次:
爲了更快的訓練,我已經改變了 「CPU」 到 「GPU」 在以下4線運行在GPU代碼,而不是在GPU上。 (我使用nvidia-smi進行了檢查)
請讓我知道是否有其他需要更改以在gpu上進行訓練。