2015-02-24 49 views
-1

我一直在閱讀一些內核PCA(KPCA)相關論文......我不與概念清晰又...非線性pca(eqn)中的協方差矩陣..爲什麼它與線性pca不同?

我發現,「協方差矩陣」被發現通過採取轉在其中KPCA在線性pca中情況並非如此。當KPCA與PCA相似時,爲什麼會出現這種差異(在方程中):在找到協方差矩陣並繼續使用特徵值之前,PCA可以免除特徵向量,因此需要映射爲(在KPCA中)..?我也知道在KPCA中,輸入被映射到使用內核技巧的高維特徵空間。我對協方差部分感到困惑。

請幫助..

+0

@LEP:我正在閱讀文章** http://www.face-rec.org/algorithms/Kernel/kernelPCA_scholkopf.pdf ... ** ...據說PCA將對角化協方差矩陣...如何和爲什麼? – Devi 2015-02-25 08:30:32

回答

0

在KPCA協方差矩陣的確定很簡單 - 所以有沒有關於它與PCA的關係問題。搜索克拉矩陣,然後你就會明白。順便說一下,還要搜索「非線性流形學習」或「距離度量學習」,並且您都將獲得有關KPCA的全部詳細信息。這聽起來像你沒有研究徑向基函數(RBF)內核足以完全理解正在發生的事情。因此,搜索RBF內核,這些內核也碰巧在內核迴歸和支持向量機中使用。

+0

我是一個相當新手kpca ...感謝您的答覆和參考..! – Devi 2015-02-25 04:25:01

+0

我已經意識到轉置的東西類似於PCA的正常方程(即通過找出平均值然後從數據點中減去),而在kpca中,它只是用轉置方程表示。(兩者的答案都是相同).. :) – Devi 2015-02-27 05:53:10