1
我想在sklearn中實現LAD版本的linear_model.Ridge()。意味着正規化仍然在L2範數上完成,但是該模型使絕對偏差的總和最小而不是誤差的平方。意思是我們正在最小化在Python中的L2規範的LAD? (sklearn)
這可能嗎?
我想在sklearn中實現LAD版本的linear_model.Ridge()。意味着正規化仍然在L2範數上完成,但是該模型使絕對偏差的總和最小而不是誤差的平方。意思是我們正在最小化在Python中的L2規範的LAD? (sklearn)
這可能嗎?
如果您使用scikit的SGDRegressor學會與指定的epsilon_insensitive損失函數和小量值設爲零,你會得到一個模型等效採用L2正規化小夥子。
這是一個有趣的問題,但並不是真正關於SO的主題。也許問'gitter'對你來說是一個更好的選擇。 – cel