我對機器學習還很陌生,剛剛被引入主成分分析作爲降維方法。我不明白,在哪些情況下PCA比簡單地從模型中刪除某些功能更好?如果目的是爲了獲得較低維度的數據,爲什麼我們不把這些相關的功能進行分組,並保留每個組的一個特徵?主成分分析vs特徵去除
1
A
回答
1
相關問題
- 1. 用特徵庫進行主成分分析
- 2. PCA(主成分分析)和特徵選擇之間的區別
- 3. 主成分分析
- 4. 主成分分析
- 5. 做特徵選擇,主成分分析和歸一化的正確順序?
- 6. 主成分分析 - 爲什麼特徵向量的點積不是零?
- 7. 如何使用主成分分析來應用特徵縮減? (C#,Accord)
- 8. 查找本徵向量使用主成分分析
- 9. Caret的主成分分析
- 10. ade4包 - 主成分分析
- 11. Python - 主成分分析
- 12. 分類詞語包 - 特徵vs像素
- 13. 特徵分解
- 14. 分類特徵
- 15. 情感分析,特徵選擇
- 16. 主要組件分析的最重要的原始特徵
- 17. 特徵值分解
- 18. 分析中去
- 19. 主成分分析(PCA) - 訪問形狀
- 20. C#中的主成分分析
- 21. 主成分分析和功能降低
- 22. Matlab問題 - 主成分分析
- 23. R中的主成分分析,ggbiplot
- 24. 主成分分析(PCA)算法
- 25. RNN中的主成分分析
- 26. R中的主成分分析
- 27. 主成分和因子分析
- 28. Python - 主成分分析(PCA)錯誤
- 29. 主成分分析的工作示例?
- 30. 使用Python的主成分分析(PCA)
這是一個很好的問題,但它更適合[CrossValidated](http://stats.stackexchange.com),它是StackOverflow的stats/ML兄弟。 –