2017-03-28 143 views
5

確保我得到這個權利:如果我們使用sklearn.metrics.log_loss獨立sklearn metrics.log_loss是正對的得分「neg_log_loss」是負

,即log_loss(y_true,y_pred),它產生了積極的成績 - 分數越小,表現越好。

然而,如果我們使用'neg_log_loss'作爲一個得分方案,如「cross_val_score」,得分爲負 - 分數越大,性能越好

這是由於計分方案建造的。要與其他評價方案是一致的。因爲一般來說,越高越好,我們否定通常log_loss要與趨勢相一致,並且正在爲宗旨,使唯一目的。這是理解是否正確?

[背景:metric.log_loss得分爲正,'neg_los_loss'爲負得分,均指相同的文檔頁面。]

+1

我想知道同樣的事情 –

回答

0

sklearn.metrics.log_loss是通常定義的錯誤度量的實現,它與大多數錯誤度量都是正數。在這種情況下,它是通常被最小化的度量(例如,作爲迴歸的均方誤差),與諸如最大化的精度等度量相反。

在「neg_log_loss」是一個,因此一個技術性使創造的效用值,這允許優化sklearn最大化該實用程序的功能和類,而不必改變所述函數的行爲對於每個度量標準(例如包括例如命名cross_val_score, GridSearchCV,RandomizedSearchCV等)。