我目前正試圖瞭解TensorFlow中LSTM的BPTT。我得到參數「num_steps」用於RNN推出的範圍和錯誤反向傳播。我對這是如何工作有一個普遍的問題。LSTM的反向傳播時間(BPTT)
供公式重新參考。我指的是: Formulas LSTM(https://arxiv.org/abs/1506.00019)
問: 什麼路徑backpropagated很多步驟是什麼?常數誤差傳送帶由公式5創建,反向傳播的導數(s(t) - > s(t-1))對所有時間步長均爲1。這就是爲什麼LSTM捕獲遠距離依賴性的原因。我混淆了h(t-1)的g(t),i(t),f(t)和o(t)的依賴關係。用語言來說:當前的門不僅取決於輸入,還取決於最後的隱藏狀態。
沒有這種依賴性導致爆炸/再次消失梯度問題?
如果我沿着這些連接backpropagate我得到的不是一個梯度。窺視孔連接基本上導致相同的問題。
感謝您的幫助!
也許更適合HTTP: 。//stats.stackexchange.com或http://datascience.stackexchange.com – mrmcgreg
謝謝,我也貼吧有:http://datascience.stackexchange.com/questions/15444/backpropagation-through-time-bptt-of -lstm功能於tensorflow –