0
我想用數千次的時間步長構建一個RNN,所以正確的方法是使用while_loop函數,因爲GPU在for循環中將會出現內存不足。如何使用帶張量流的while_loop在每個步驟中保存輸出?
但我找不到在每一步都保存rnn輸出的方法。我嘗試使用全局列表或使用tf.concat()來累積輸出。都沒有工作。看起來像while_loop()只能用於獲取最終輸出。
是否有解決方案來獲得所有的輸出?
我想用數千次的時間步長構建一個RNN,所以正確的方法是使用while_loop函數,因爲GPU在for循環中將會出現內存不足。如何使用帶張量流的while_loop在每個步驟中保存輸出?
但我找不到在每一步都保存rnn輸出的方法。我嘗試使用全局列表或使用tf.concat()來累積輸出。都沒有工作。看起來像while_loop()只能用於獲取最終輸出。
是否有解決方案來獲得所有的輸出?
嘗試tf.nn.dynamic_rnn
這確實使用while_loop
和TensorArray
對象。