我有1000個類的多標籤問題,但一次只選擇少數幾個。當使用tf.nn.sigmoid_cross_entropy_with_logits時,這會導致損失非常快地接近0,因爲預計有990+個0。tf.nn.sigmoid_cross_entropy_with_logits權重
loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits, labels))
它是數學上可能只是多由大的恆定損失(比如1000),只是讓我可以在tensorboard,我可以真正區分情節損失次數?我意識到我可以簡單地多重我繪製的值(不會影響我傳遞給train_op的值),但我正試圖更好地理解train_op乘以常數是否會產生實際效果。例如,我可以實現下列任何選擇的,我試圖想通過潛在後果:
loss = tf.reduce_mean(tf.multiply(tf.nn.sigmoid_cross_entropy_with_logits(logits, labels), 1000.0))
loss = tf.multiply(tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits, labels)), 1000.0)
你所期望的培訓結果不同,如果一個常數像這樣介紹?