2016-06-30 46 views

回答

1

你讀過任何像this one這樣的解碼器的源代碼,你就會知道它代表了多少關注。

有時候會有一些注意力(層次關注),例如this paper中的這個(如下圖所示)。
TL; DR;第一個是這個詞,第二個是這個詞。
請檢查此圖表: enter image description here

+0

是否我們計算了解碼器中一個單元的多少注意向量? 如何更改關注次數?就像我們兩次運行編碼器狀態一樣? –

+1

是的,你可以驗證下面的代碼,特別是[這一行](https://github.com/tensorflow/tensorflow/blob/r1.1/tensorflow/contrib/legacy_seq2seq/python/ops/seq2seq.py# L683)。 – lerner

+0

是的。但是我有這個問題。如果我們有兩個關注會發生什麼? –