2015-11-19 107 views
1

我對機器學習還很陌生,剛剛被引入主成分分析作爲降維方法。我不明白,在哪些情況下PCA比簡單地從模型中刪除某些功能更好?如果目的是爲了獲得較低維度的數據,爲什麼我們不把這些相關的功能進行分組,並保留每個組的一個特徵?主成分分析vs特徵去除

+0

這是一個很好的問題,但它更適合[CrossValidated](http://stats.stackexchange.com),它是StackOverflow的stats/ML兄弟。 –

回答

1

功能減少(如PCA)和功能選擇(您描述)之間有一個基本區別。關鍵的區別在於,功能縮減(PCA)通過一些投影將原始尺寸的數據映射到較低的尺寸,例如PCA使用各自的線性組合。所以最終的數據嵌入信息從所有功能。如果你執行功能選擇丟棄信息,你完全失去了那裏的任何東西。此外,PCA保證您保留數據方差的給定部分。

+0

據我所知,用PCA我們消除了相關的維數,即線性相關。也就是說,預測所有這些方面似乎不會保留更多的信息,而不僅僅是放棄它們......我錯過了什麼嗎? – Botond

+1

這與PCA無關。 Pca尋找保留大部分方差的線性投影。它不會「消除」任何尺寸。 – lejlot