0
我正在使用https://google.github.io/seq2seq/的代碼訓練seq2seq NMT(神經機器翻譯)。在我中斷訓練過程之後,重新啓動的過程變得非常慢(從1.2步/秒到0.07步/秒)。有其他人有這種經歷嗎?我該如何調試?我已經運行此數週,真的不想放棄...謝謝!〜Tensorflow SEQ2SEQ培訓突然超慢
正常訓練的最後一行,
INFO:tensorflow:loss = 0.585205, step = 830853 (79.477 sec)
INFO:tensorflow:global_step/sec: 1.24179
INFO:tensorflow:loss = 0.267574, step = 830953 (80.529 sec)
的超慢訓練前幾行...
INFO:tensorflow:global_step/sec: 0.0746058
INFO:tensorflow:loss = 0.554718, step = 830854 (1340.379 sec)