2017-03-28 122 views
0

我正在訓練一對比較一對圖像的簡單暹羅網絡。我按照caffe(siamese)給出的例子做了我自己的模型。用Caffe訓練暹羅網絡

我的問題是與Constrastive Loss函數。這個函數實現的細節是caffe,定義爲here。我在執行我使用的餘量= 1,定義如下

layer { 
    name: "loss" 
    type: "ContrastiveLoss" 
    bottom: "data" 
    bottom: "data_p" 
    bottom: "label" 
    top: "loss" 
    contrastive_loss_param { 
    margin: 1 
    } 
} 

我的數據被標記爲如果dissimliar和如果相似。我對對比損失函數的邊際感到困惑。邊緣參數如何選擇?

Page 3 of the initial paper by Hadsell et.al狀態邊界> 0但有沒有上限?

回答

0

在我看來,它就像一個超參數。 較大的餘量將大量分離不同的數據,但難以訓練網絡。微小的差距會輕易地學習一個糟糕的網絡。一般來說,您應該爲不同的數據集選擇不同的邊距。對於上限,它由底部的'data'和'data_p'確定。如果「數據」和「數據_p」的值範圍受到限制,例如其絕對值小於1,則存在上限。