我是新來的張量流,我看到兩種不同的方式使用GradientDescentOptimiser
:Tensorflow學習差環
for (x, y) in zip(trX, trY):
sess.run(train_op, feed_dict={X: x, Y: y})
我也見這種集成迴路的
sess.run(train_op, feed_dict={X: trX, Y: trY})
我測試了但結果稍有不同。目前我只是訓練自己進行簡單的線性迴歸,但可能會對ANN
產生影響。爲什麼會有差異,哪個是神經網絡的最佳代碼?
嗨JLB,你能給出更多關於第二種情況的代碼嗎?什麼是train_op,變量X和Y? – Corentin
當然,在下面的代碼中定義了更多的代碼,gradientdecent。 唯一的區別在於上面提到的估計循環。 成本= tf.square(Y - y_model)#使用平方誤差爲代價函數 train_op = tf.train.GradientDescentOptimizer(0.001).minimize(成本) var_grad = tf.gradients(成本,w)的 與TF。 Session()as sess: tf.initialize_all_variables()。run() for i in range(100): sess.run(train_op,feed_dict = {X:trX,Y:trY}) – JLB
您可能想要後者 - 獲得張量來驅動執行。 – drpng