1
A
回答
1
這取決於執行
爲了創建樹,你會拆你的學習了一些準則設定的剩餘。最常用的是在下面的葉子中增加純度(純度可以被看作是在一片葉子中具有所有相同的類別)。如果您將純度定義爲A類和B類元素之間的比率(例如,多個副本將最終放在同一片葉子中並偏斜對其有利的分割)。
我知道一些實施考慮到這一點,並使用替代標準來解決這個問題。
相關問題
- 1. 生成一個完美模擬訓練集的決策樹?
- 2. 決策樹學習算法中的重複訓練數據
- 3. 訓練集平衡策略
- 4. WEKA的多層感知器:訓練然後再訓練
- 5. 1)從整個訓練集中訓練CNN和2)訓練集中的訓練集,然後是整個訓練集之間的區別是什麼?
- 6. 嘗試訓練決策樹分類器時出錯
- 7. 有偏倚的數據集的培訓決策樹
- 8. C中的感知器未能訓練
- 9. 決策樹感應開源代碼
- 10. AdaBoost算法的訓練集
- 11. 更新ANN的訓練集
- 12. 訓練數據集
- 13. pyspark決策樹中的樣本權重
- 14. 計算整個訓練集的精度
- 15. 從Haar Cascade中的多個圖像創建訓練集
- 16. 多目標決策樹
- 17. R中的auto.arima的訓練數據集
- 18. TensorFlow:收集我自己的訓練數據集&使用該訓練數據集來查找對象的位置
- 19. Backpropogation中的標準化訓練集
- 20. 在矢量量化中的訓練集
- 21. tensorflow多GPU訓練
- 22. J48決策樹
- 23. 決策樹jQuery
- 24. 瞭解感知器訓練算法
- 25. 準備一個多標記分類的訓練數據集
- 26. R訓練和測試集
- 27. 追加Tensorflow訓練集
- 28. Twitter主觀訓練集
- 29. Neuroph不能訓練集
- 30. 表示訓練集與