2013-03-31 45 views
1

在NLTK中使用Bernoulli樸素貝葉斯算法和scikit-learn模塊中的分類文本(僅有兩類)時,我得到的結果完全不同。雖然兩者之間的總體準確率相當(雖然差別很大),但I型和II型錯誤的差異是顯着的。特別是,NLTK樸素貝葉斯分類器會給出更多的類型I而不是類型II錯誤,而scikit-learn則相反。這種「異常」似乎在不同的特徵和不同的訓練樣本中是一致的。是否有一個原因 ?哪兩個更值得信賴?NLTK中的伯努利樸素貝葉斯和scikit-learn中的不同結果

回答

1

NLTK沒有實現伯努利樸素貝葉斯。它實現了多項式樸素貝葉斯,但只允許二進制特徵。