2016-06-23 34 views
0

我想用數千次的時間步長構建一個RNN,所以正確的方法是使用while_loop函數,因爲GPU在for循環中將會出現內存不足。如何使用帶張量流的while_loop在每個步驟中保存輸出?

但我找不到在每一步都保存rnn輸出的方法。我嘗試使用全局列表或使用tf.concat()來累積輸出。都沒有工作。看起來像while_loop()只能用於獲取最終輸出。

是否有解決方案來獲得所有的輸出?

回答

1

嘗試tf.nn.dynamic_rnn這確實使用while_loopTensorArray對象。

相關問題