0
我正在閱讀SVM的數學公式,在很多來源中,我發現這個想法「max-margin超平面完全由那些最靠近的\ vec {x} _i確定這些\ vec {x} _i被稱爲支持向量。「 專家能解釋這個結果嗎?請。SVM中最大邊距和矢量支持之間的關係
我正在閱讀SVM的數學公式,在很多來源中,我發現這個想法「max-margin超平面完全由那些最靠近的\ vec {x} _i確定這些\ vec {x} _i被稱爲支持向量。「 專家能解釋這個結果嗎?請。SVM中最大邊距和矢量支持之間的關係
這是真實的,只有當你使用representation theorem
你分離W平面可以表示爲SUM(i = 1到M)Alpha_i *島(X_I) 其中m - 你的訓練樣本的實例數量和x_i就是我的例子。 Phi是將x_i映射到某些特徵空間的函數。因此,您的SVM算法將找到向量Alpha =(Alpha_1 ... Alpha_m), - alpha_i for x_i。每X_I(例如火車樣品中),他的alpha_i是不是零W.
的 支持向量因此得名 - SVM。
如果你的數據是可分離,會發生什麼事是,你只需要支持向量是接近分離保證金W¯¯,訓練集中的所有其他可以被丟棄(其阿爾法爲0)。算法將使用的支持向量的數量取決於數據的複雜性以及您使用的可靠性。
該優秀教程的第3部分對此進行了非常清楚的解釋:http://research.microsoft.com/pubs/67119/svmtutorial.pdf –