4
Tensorflow函數tf.nn.weighted_cross_entropy_with_logits()
採用參數pos_weight
。 documentation將pos_weight
定義爲「在正例上使用的係數」。我認爲這意味着增加pos_weight
會增加誤報造成的損失,並減少漏報造成的損失。或者我有這個倒退?Tensorflow:加權交叉熵中權重的解釋
Tensorflow函數tf.nn.weighted_cross_entropy_with_logits()
採用參數pos_weight
。 documentation將pos_weight
定義爲「在正例上使用的係數」。我認爲這意味着增加pos_weight
會增加誤報造成的損失,並減少漏報造成的損失。或者我有這個倒退?Tensorflow:加權交叉熵中權重的解釋
其實,這是相反的。引用文檔:
的爭論
pos_weight
作爲乘數爲正 目標。
因此,假設你有5
數據集中的和積極的例子7
負,如果設置了pos_weight=2
,那麼你的損失將是,如果你有10
正例7
負。
假設您得到的所有正面例子都是錯的,而且都是負面的。最初你會有5
錯誤的否定和0
誤報。當您增加pos_weight
時,漏報的數量將會人爲增加。請注意,來自誤報的損失值不會改變。
謝謝。因此,如果使用具有2個以上類別和1個熱點事實標籤的互斥分類器,增加pos_weight會導致所有情況下的誤差都會增加,並帶有錯誤的估計值,而具有正確估計值的情況則保持不變(因爲正確的估計值丟失,估計個案爲零)? –
放大所有情況下的損失*錯誤否定*,但是,我想是的。 – sygi