-2

我想學習集成方法,並發現ada-boosting可以建立在普通機器學習方法(如隨機森林)之上。該方法可以使用訓練集中的錯誤分類數據來建立更準確的分類模型。如何使用ada boosting作爲R中的集合方法?

但是,我在網上搜索,但我找不到執行的答案。

我想知道如何在隨機森林的頂部爲分類問題構建一個ada-boosting來最小化錯誤?

讓我們只說我有一個

訓練集(DF):火車

測試集(DF):測試

和多項功能叫做:特徵。

,分級被稱爲:結果(火車$結果)

我的正常模式將(使用插入符號包假設):

mymodel_rf < -train(火車[,結果]火車[, Feature],method =「rf」,trControl = ...)

那麼如何前進?使用這個結果構建ada-boosting方法?

+0

隨機森林和adaboost是不同的集成方法。但是,在談論adaboost時,它會給數據點權重並不斷更新它們。有一些數學涉及到更新權重。 您可以按照以下鏈接瞭解如何實施該算法: https://courses.cs.washington.edu/courses/cse446/17wi/slides/boosting-kNNclassification-annotated.pdf https:// courses。 cs.washington.edu/courses/cse546/13au/slides/decision-trees-annotated.pdf – frank

+0

我不是在尋找ada-boosting的定期實施。我正在尋找兩種算法的集合。在堅果殼中,我想知道如何將隨機森林的結果傳遞給ada-boosting。給予ada-boosting目標從以前的訓練(在我的情況下,它是隨機森林)的錯誤分類數據,我想知道我應該如何將隨機森林中的錯誤分類數據傳遞給ada-boosting。 –

+0

2秒鐘的谷歌搜索帶我到這個教程:https://cran.r-project.org/web/packages/caretEnsemble/vignettes/caretEnsemble-intro.html – Zephro

回答

0

我不知道你在'頂上'是什麼意思,但RF會給你一些結果,Adaboost會給你一些結果。如果你想合成這兩個,只需得到結果的統計模式。

無論如何,Adaboost和Random Forest都是合奏技巧。該技術是構建無數弱分類器,並通過採用平均值或模式將它們組合成強分類器。

相關問題