0
在RNN的Tensorflow教程代碼中,下一批是如何獲得的?在reader.py中,函數ptb_producer通過出列方法每次產生一批[batch_size x num_steps]但是在ptb_word_lm.py中不會多次調用它以獲取所有批次。瞭解如何獲得不同批次的任何幫助將非常有幫助。提前致謝。如何在Tensorflow教程代碼中獲得不同批次的訓練數據?
在RNN的Tensorflow教程代碼中,下一批是如何獲得的?在reader.py中,函數ptb_producer通過出列方法每次產生一批[batch_size x num_steps]但是在ptb_word_lm.py中不會多次調用它以獲取所有批次。瞭解如何獲得不同批次的任何幫助將非常有幫助。提前致謝。如何在Tensorflow教程代碼中獲得不同批次的訓練數據?
你有沒有注意到,這些代碼在ptb_word_lm.py(線376),如下:
sv = tf.train.Supervisor(logdir=FLAGS.save_path)
with sv.managed_session() as session:
for i in range(config.max_max_epoch):#LOOK!The param max_max_epoch.
lr_decay = config.lr_decay ** max(i + 1 - config.max_epoch, 0.0)
m.assign_lr(session, config.learning_rate * lr_decay)
這是一個循環明顯,和運m.assign_lr()
被執行max_max_epoch
times.what的更多,m = PTBModel(is_training=True, config=config, input_=train_input)
,(ptb_producer當sess.run()
被調用一次時產生一個批次),對不對?所以,實際上,函數ptb_producer在ptb_word_lm.py中被多次調用。附:我不確定這是否正確。希望有所幫助。
嗨,歡迎來到堆棧溢出。請參閱[如何問](https://stackoverflow.com/help/how-to-ask) – Maher