4
我正在使用線性迴歸模型來處理Weka。我意識到,通過乘以我的數據集中的兩個相關屬性,並將其作爲額外屬性添加,以提高線性迴歸的性能。 但是,我不明白爲什麼!爲什麼我的乘法兩個相關屬性有更好的結果。爲什麼交互屬性可以提高線性迴歸的性能
我正在使用線性迴歸模型來處理Weka。我意識到,通過乘以我的數據集中的兩個相關屬性,並將其作爲額外屬性添加,以提高線性迴歸的性能。 但是,我不明白爲什麼!爲什麼我的乘法兩個相關屬性有更好的結果。爲什麼交互屬性可以提高線性迴歸的性能
這是一個標誌,表示您近似的函數在原始輸入中不是線性的,而是在其產品中。實際上,您已經重新創建了多變量polynomial regression。
例如,假設你近似函數具有如下形式Ŷ = 一個×X²+ b×X + Ç。安裝在X的線性迴歸模型,不但不會得到好的結果,但是當你給它兩個X²和X,它可以學習正確的一個和b。
同樣是在多變量設置爲真:一個函數可能不會在X 和X 分別線性的,但它可能在X ×X ,你稱之爲「交互屬性」。 (我知道這些是跨產品特徵或特徵連詞;它們是SVM中多項式核函數計算的結果,這就是爲什麼SVM比線性模型更強大的學習者。)