最近,我一直在講課和課文,並試圖理解SVM的使能如何用於更高維空間。支持向量機理解
在正常的邏輯迴歸中,我們使用這些特徵。但是在SVM中,我們使用一個映射幫助我們獲得非線性決策邊界。
通常情況下,我們直接使用特徵..但在內核技巧的幫助下,我們可以在數據中找到使用特徵之間的關係。產品之間的關係等。這是正確的?
我們在內核的幫助下做到這一點。
Now..i明白,一個多項式覈對應於已知功能vector..but我無法理解什麼高斯核相當於(有人告訴我vector..but什麼無限維特徵?)
另外,我無法通過掌握內核是訓練樣例之間的相似度量的概念。how is this is a part of the SVM's working?
我花了很多時間試圖理解這些..但徒然。任何幫助將大大apprecciated!
感謝提前:)
內核只是一個必須滿足一些預定義屬性(我不想列出它們,你可以自己找到它)的操作。在線性情況下,內核點積在非線性情況下被替換爲(比方說)高斯內核。點積也是某種意義上的相似度量,因爲如果它們之間的角度減小,則在兩個向量之間得到更大的點積的結果。 –
當我們使用svm時,爲什麼我們需要一個相似性度量值?根據我的理解,使用內核我們可以通過使用更高維特徵向量來找到非線性決策邊界。 –
相似性是距離的倒數。對於線性情況,距離函數是簡單的畢達哥拉斯距離,用線性向量操作實現。 「核心技巧」應用非線性距離函數。另一種考慮它的方式是內核技巧搜索距離度量標準,該距離度量標準將空間轉換爲分離超平面*爲*線性的位置。 – Prune