我正在嘗試使用Tensorflow。這是一個非常簡單的代碼。張量流中tf.sub和正減運算有什麼區別?
train = tf.placeholder(tf.float32, [1], name="train")
W1 = tf.Variable(tf.truncated_normal([1], stddev=0.1), name="W1")
loss = tf.pow(tf.sub(train, W1), 2)
step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
只是忽略優化部分(第4行)。它將採用一個浮點數和列車W1來增加平方差。
我的問題很簡單。如果我只使用減號代替 tf.sub」下面,有什麼不同呢,還是會導致錯誤的結果?
loss = tf.pow(train-W1, 2)
當我取代它,結果看起來是一樣的。如果它們是相同的,爲什麼我們需要使用「tf.add/tf.sub」事情
內置反向傳播的計算只能由做的事情