在機器學習迴歸問題中,爲什麼局部最小值是針對導數函數而不是實際函數計算的?爲什麼使用函數的導數來計算局部最小值而不是實際函數?
實施例:http://en.wikipedia.org/wiki/Gradient_descent
梯度下降算法應用於找到函數$$
f(x)=x^4−3x^3+2, ----(A)
與衍生物
f'(x)=4x^3−9x^2. ----(B)
這裏的局部最小值使用以找到局部最小值(A)的梯度下降算法,他們已經使用了(A)的導數函數,它是函數(B)。
對不起,我有一個非常愚蠢的問題。 f'(x)= 4x^3-9x^2通過查看函數,我們可以找到局部最小值,即對於x = 0,f'(x)= 0將出現,那麼爲什麼我們需要梯度下降。 – user703555 2013-02-15 09:16:31
好吧,這不僅僅是看着它:當f'(x)= 0時,你可以求解x。這是一個簡單的例子:大多數情況下,當你使用優化方法時,你無法獲得分析解決方案。請參閱http://en.wikipedia.org/wiki/Convex_optimization以獲取更多詳細信息。 – 2013-02-15 10:09:54