在具有編碼器和解碼器的seq2seq模型中,在每個生成步驟,softmax層輸出整個詞彙表的分佈。在CNTK中,通過使用C.hardmax函數可以很容易地實現貪婪的解碼器。它看起來像這樣。 def create_model_greedy(s2smodel):
# model used in (greedy) decoding (history is decoder's own outpu
我正在運行自定義代碼來訓練我自己的Seq2Seq模型的張量流。我正在使用multi-rnn單元格和embedding_attention_seq2seq。儘管恢復模型我得到以下錯誤: 2017-07-14 13:49:13.693612: W tensorflow/core/framework/op_kernel.cc:1158] Not found: Key embedding_attentio
請參考這個帖子就知道了問題的背景: Does the TensorFlow embedding_attention_seq2seq method implement a bidirectional RNN Encoder by default? 我在同一個模型工作,並希望與雙向層,以取代單向LSTM層。我意識到我必須使用static_bidirectional_rnn而不是static_rnn,但