0
似乎用於在示例TensorFlow代碼中爲sequence-to-sequence代碼計算seq2seq_model.py代碼中用於計算注意掩碼的attention()方法不會在調用期間解碼。在解碼過程中用TensorFlow的seq2seq示例代碼提取注意矩陣
有誰知道如何解決這個問題?在這裏提出了一個類似的問題:Visualizing attention activation in Tensorflow,但我不清楚如何在解碼期間獲得矩陣。
謝謝!