這裏是可變長度序列和RNN的Tensorflow教程:
https://r2rt.com/recurrent-neural-networks-in-tensorflow-iii-variable-length-sequences.html批處理輸入中動態rnn的(初始)狀態變量是否應該共享?
裏面你看到這一點:
init_state = tf.get_variable('init_state', [1, state_size],
initializer=tf.constant_initializer(0.0))
init_state = tf.tile(init_state, [batch_size, 1])
有什麼好處(除非它是完全錯誤的),要做到這一點呢? :
init_state = tf.get_variable('init_state', [batch_size, state_size],
initializer=tf.constant_initializer(0.0))
糾正我,如果我錯了,但我覺得上面使用tile
選擇,以分享在v良莠不齊的而不是批處理