4
雖然朱古力定義prototxt
,有時候我覺得我們用Softmax
作爲最後一層類型,有時我們使用SoftmaxWithLoss
,我知道Softmax
層將返回輸入數據屬於每個類的概率,但似乎SoftmaxwithLoss
也將返回類概率,那麼它們之間有什麼區別?還是我誤解了這兩種圖層類型的用法?caffe中的Softmax和SoftmaxWithLoss圖層有什麼區別?
雖然朱古力定義prototxt
,有時候我覺得我們用Softmax
作爲最後一層類型,有時我們使用SoftmaxWithLoss
,我知道Softmax
層將返回輸入數據屬於每個類的概率,但似乎SoftmaxwithLoss
也將返回類概率,那麼它們之間有什麼區別?還是我誤解了這兩種圖層類型的用法?caffe中的Softmax和SoftmaxWithLoss圖層有什麼區別?
儘管Softmax
返回給定模型預測的每個目標類別的概率,SoftmaxWithLoss
不僅將softmax操作應用於預測,還計算作爲輸出返回的多項式邏輯損失。這是訓練階段的基礎(沒有損失,將不會有梯度可用於更新網絡參數)。
見 SoftmaxWithLossLayer 和Caffe Loss 獲取更多信息。