在Tensorflow中,我有一個分類器網絡和不平衡的培訓班。由於各種原因,我不能使用重採樣來補償不平衡的數據。因此,我不得不通過其他方式補償失衡,特別是根據每個類別中例子的數量乘以權重。我知道這不是首選方法,但重採樣不是一種選擇。我的訓練損失是tf.nn.softmax_cross_entropy_with_logits
(我也可能嘗試tf.nn.sparse_softmax_cross_entropy_with_logits
)。所述Tensorflow文檔包括在這些OPS的描述如下:Tensorflow:具有交叉熵的縮放logits
警告:該運算預計未縮放logits,因爲它提高效率上執行logits一個SOFTMAX 內部。不要用softmax的 輸出調用此操作,因爲它會產生不正確的結果。
我的問題:上面只提到了警告縮放通過SOFTMAX完成,還是意味着任何類型的任何分對數比例是被禁止的?如果是後者,那麼我的班級重新平衡logit縮放會導致錯誤的結果?
感謝,
羅恩
好奇你是否找到了適合你的解決方案?我面臨着類似的挑戰,想知道其他人如何設法處理它? –
我試着將每個例子的交叉熵乘以實例的真實類的權重,結果可疑。我已經採取了重新採樣數據。 –