一個Keras介紹Seq2Seq模式已經在幾個星期前公佈了可以在這裏找到:https://blog.keras.io/a-ten-minute-introduction-to-sequence-to-sequence-learning-in-keras.html 我真的不理解這個代碼的一部分:Keras Seq2Seq介紹
decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True) decoder_outputs, _, _= decoder_lstm(decoder_inputs,initial_state=encoder_states) decoder_dense = Dense(num_decoder_tokens, activation='softmax') decoder_outputs = decoder_dense(decoder_outputs)
這裏decoder_lstm
被定義爲。它是一個尺寸爲latent_dim
的圖層。我們使用編碼器的狀態作爲解碼器的initial_state。
我不明白的是爲什麼在LSTM層之後添加一個密集層以及爲什麼它正在工作? 解碼器應該返回所有的序列,因爲return_sequences = True
,所以在工作之後添加密集層怎麼可能?
我想我錯過成才這裏,感謝您的幫助
本