我有一個文件,其中包含關於二元分類問題的兩個模型(A和B)的預測。現在我想了解他們對他們最有信心的觀察結果有多好。爲此,我想根據他們的自信程度將他們的預測分成10組。這些組中的每一個應該具有相同數量的觀察值。但是,當我這樣做時,模型的準確性會發生顯着變化!怎麼可能?R中的分組變化大致意味着
我也有n_groups=100
測試,但它只是使一個微小的差別。 CSV文件是here和代碼如下:
# Grouping observations
conf <- read.table(file="conf.csv", sep=',', header=T)
n_groups <- 10
conf$model_a_conf <- pmax(conf$model_a_pred_0, conf$model_a_pred_1)
conf$model_b_conf <- pmax(conf$model_b_pred_0, conf$model_b_pred_1)
conf$conf_group_model_a <- cut(conf$model_a_conf, n_groups, labels=FALSE, ordered_result=TRUE)
conf$conf_group_model_b <- cut(conf$model_b_conf, n_groups, labels=FALSE, ordered_result=TRUE)
# Test of original mean.
mean(conf$model_a_acc) # 0.78
mean(conf$model_b_acc) # 0.777
# Test for mean in aggregated data. They should be similar.
(acc_model_a <- mean(tapply(conf$model_a_acc, conf$conf_group_model_a, FUN=mean))) # 0.8491
(acc_model_b <- mean(tapply(conf$model_b_acc, conf$conf_group_model_b, FUN=mean))) # 0.7526
編輯以稍微澄清。
也許比較'平均(1:10)'和'平均(C(均值(1:2),平均(3:10)))'會有幫助嗎? – joran
有人可以解釋爲什麼這個問題已被低估並投票結束?我一直在尋找http://meta.stackexchange.com/questions/10582/what-is-a-closed-or-on-hold-question,但看不到一個合適的理由。它太不清楚了嗎? – pir