4
我想了解tf.gradients
中的grad_ys
參數。我已經看到它的使用像一個真正的漸變的乘法器,但它在定義中不是crear。從數學角度來看,整個表情將如何?在tf.gradients中使用grads_ys參數 - TensorFlow
我想了解tf.gradients
中的grad_ys
參數。我已經看到它的使用像一個真正的漸變的乘法器,但它在定義中不是crear。從數學角度來看,整個表情將如何?在tf.gradients中使用grads_ys參數 - TensorFlow
編輯:更好地澄清表示法是here
ys
歸納起來,使單個標y
,然後tf.gradients
計算dy/dx
其中x
代表xs
grad_ys
變量代表的「啓動」 backprop值。它們默認爲1,但當您想要將若干tf.gradients
調用連接在一起時,可能會有不同的值 - 您可以將之前的tf.gradients
調用的輸出傳遞到grad_ys
以繼續反向傳播流程。
正式定義,看看反向積累這裏的鏈式表達:https://en.wikipedia.org/wiki/Automatic_differentiation#Reverse_accumulation
對應於TensorFlow dy/dw3 * dw3/dw2
期限爲1的(認爲它彷彿TensorFlow包裝成本與虛擬身份OP)的矢量。當您指定grad_ys
這個詞被替換的1
小號
你能給我的「正規」的定義
grad_ys
,而不是載體。它是'tf.gradients(y,x,grad_ys)= grad_ys * diff(y,x)'? –或者你可以舉個例子嗎? –
增加了一個正式的定義 –