2017-02-22 35 views

回答

6

編輯:更好地澄清表示法是here

ys歸納起來,使單個標y,然後tf.gradients計算dy/dx其中x代表xs

grad_ys變量代表的「啓動」 backprop值。它們默認爲1,但當您想要將若干tf.gradients調用連接在一起時,可能會有不同的值 - 您可以將之前的tf.gradients調用的輸出傳遞到grad_ys以繼續反向傳播流程。

正式定義,看看反向積累這裏的鏈式表達:https://en.wikipedia.org/wiki/Automatic_differentiation#Reverse_accumulation

對應於TensorFlow dy/dw3 * dw3/dw2期限爲1的(認爲它彷彿TensorFlow包裝成本與虛擬身份OP)的矢量。當您指定grad_ys這個詞被替換的1小號

enter image description here

+0

你能給我的「正規」的定義grad_ys,而不是載體。它是'tf.gradients(y,x,grad_ys)= grad_ys * diff(y,x)'? –

+0

或者你可以舉個例子嗎? –

+0

增加了一個正式的定義 –

相關問題