在我的學士論文中,我應該使用AdaBoostM1和MultinomialNaiveBayes分類器來處理文本分類問題。問題在於,在大多數情況下,如果沒有提升,M1會更差或等於MultinomialNaiveBayes。weka AdaBoost不會改進結果
我使用下面的代碼:
AdaBoostM1 m1 = new AdaBoostM1();
m1.setClassifier(new NaiveBayesMultinomial());
m1.buildClassifier(training);
所以我沒有得到的AdaBoost如何將無法改善的效果?不幸的是,由於大多數人似乎對AdaBoost非常滿意,所以我在網上找不到任何其他內容。
所以看來解決方案是,只有分類器在其自己的訓練數據上犯錯誤時,提升纔有意義。因爲樸素貝葉斯通常達到接近100%的準確度,所以在這裏沒有意義。 –