1
我看到What's the triplet loss back propagation gradient formula? 對於漸變,錨點爲n-p
,正值爲p-a
,負值爲a-n
。
但是從80行到92行tripletLossLayer
與此不同。
即,梯度錨定爲p - n
,正值爲p - a
。 這是真的嗎?哪一個是正確的tripletLoss反向傳播公式?
我看到What's the triplet loss back propagation gradient formula? 對於漸變,錨點爲n-p
,正值爲p-a
,負值爲a-n
。
但是從80行到92行tripletLossLayer
與此不同。
即,梯度錨定爲p - n
,正值爲p - a
。 這是真的嗎?哪一個是正確的tripletLoss反向傳播公式?
triplet_loss_layer.cpp
中的行80-92是forward_cpu
函數的一部分 - 這是實際的損耗計算而不是梯度計算。
在backward_cpu
中計算梯度,其中您可以看到每個bottom
根據給出的派生here分配了它的diff
。
感謝您的幫助。 我正在訓練tripletloss層面部驗證。 谷歌網絡或VggNet談論的表現是使用這一層,但我不是。 我想要你的幫助 –