1
我一直在調整深度學習tutorial訓練二元分類問題Logistic迴歸模型的權重,本教程使用下面的負對數似然成本函數...二元分類成本函數,神經網絡
self.p_y_given_x = T.nnet.softmax(T.dot(input, self.W) + self.b)
def negative_log_likelihood(self, y):
return -T.mean(T.log(self.p_y_given_x)[T.arange(y.shape[0]), y])
但是,我的權重似乎沒有正確收斂,因爲我的驗證錯誤在連續時期增加。
我想知道如果我使用適當的成本函數來收斂適當的權重。這可能是有用的注意,我的兩個類是非常不平衡的,我的預測已經歸我能想到的
我沒有看到交叉熵和對數似然性之間的可能性 –