0
在我的機器學習課程中,我們學習瞭如何在使用多種機器學習模型來解決偏差時爲每個樣本的特徵向量附加1。例如,如果我們正在進行線性迴歸並且樣本具有特徵f_1,f_2,...,f_d,則需要添加1的「假」特徵值以允許迴歸函數不必通過原點。使用`sklearn`模型時需要附加偏倚項嗎?
當使用sklearn模型時,您是否需要自己做這件事,或者做他們的實現爲您做?具體而言,我對使用它們的任何迴歸模型或它們的SVM模型時是否需要這一點感興趣。