2016-05-09 18 views
0

在我的機器學習課程中,我們學習瞭如何在使用多種機器學習模型來解決偏差時爲每個樣本的特徵向量附加1。例如,如果我們正在進行線性迴歸並且樣本具有特徵f_1,f_2,...,f_d,則需要添加1的「假」特徵值以允許迴歸函數不必通過原點。使用`sklearn`模型時需要附加偏倚項嗎?

當使用sklearn模型時,您是否需要自己做這件事,或者做他們的實現爲您做?具體而言,我對使用它們的任何迴歸模型或它們的SVM模型時是否需要這一點感興趣。

回答

0

不,你不加任何偏見,模型以自己的方式定義偏見。你在課程中學到的東西是通用的,儘管不是完美的解決方案。這對於像SVM這樣的模型來說很重要,它不應該附加「1」,因爲這樣的偏差會被正則化,這對SVM來說簡直是錯誤的。因此,雖然這是一個很好的理論技巧,表明您實際上可以創建完全忽略偏見的方法,但在實踐中 - 通常以特定方式處理,而scikit-learn會爲您做。

相關問題