0
一個gradent下降算法使對極小幾個步驟。我的問題是,每次調用sess.run時會執行多少個這些步驟。爲了舉例說明一下:TensorFlow:每個session.run()調用有多少梯度步驟?
我在我的網絡使用梯度下降算法(tf.train.AdamOptimizer)。我有這樣一個循環:
for epoch in range(100):
sess.run(ops['optimizer'],
feed_dict=train_feed_dict
)
這個時代循環運行100次。我的問題是,如果一個sess.run調用向最小值邁出了一小步。或者,是不是每個時代的榮耀體面的一個步驟?
我相信這個答案可能*答案*,這是一個單一的調用導致了梯度下降足下。 https://stackoverflow.com/a/35728022/2184122任何更正或洞察力的讚賞,但我會假設,除非我另有聲明,答覆是正確的。 –