如果我們有一個近似函數y = f(W,X),其中x是輸入,y是輸出,並且w是重。根據梯度下降法則,我們應該根據w = w - df/dw更新權重。但是,我們是否可以根據w = w - w * df/dw更新權重?有沒有人見過這個?我想這樣做的原因是因爲在我的算法中這樣做更容易。更新方程梯度下降
Q
更新方程梯度下降
2
A
回答
1
回想一下,梯度下降是基於f的泰勒展開(W,X)中的瓦特的緊密附近,且有其目的---在上下文中---反覆修改所述重量在小步驟。根據函數f(w,x)的本地知識,反梯度方向僅僅是一個搜索方向。
一般迭代重量的包括步長,得到其中步長nu_j的值是通過使用線路搜索找到的表達
w_(i+1) = w_(i) - nu_j df/dw,
,參見例如https://en.wikipedia.org/wiki/Line_search。
因此,基於上面的討論,回答你的問題:沒有,這是不是一個好主意根據
w_(i+1) = w_(i) - w_(i) df/dw.
爲什麼要更新?如果w_(i)很大(在上下文中),我們將根據非常本地的信息採取一個巨大的步驟,並且我們將使用與精細梯度下降方法非常不同的東西。另外,正如lejlot在下面的評論中指出的那樣,w(i)的負值意味着你在梯度的(正)方向上進行遍歷,即在函數增長最快的方向上,這在當地是最糟糕的可能搜索方向(用於最小化問題)。
相關問題
- 1. 梯度下降不更新2θ值
- 2. 梯度下降vs隨機梯度下降算法
- 3. 梯度下降在Python
- 4. 梯度下降實現
- 5. 多變量梯度下降
- 6. 梯度下降Matlab實現
- 7. 梯度下降VS fminunc
- 8. 梯度下降算法
- 9. 爲什麼梯度下降更新0值權重?
- 10. matlab中的多變量梯度下降
- 11. 梯度下降(在錯誤檢測差)
- 12. 矢量化梯度下降numpy的
- 13. 梯度下降批量步驟Tensorflow
- 14. 隨機梯度下降訓練錯誤
- 15. LMS批量梯度下降NumPy
- 16. Theano隨機梯度下降NaN輸出
- 17. 梯度下降:θ驅動不收斂
- 18. Logistic迴歸的批次梯度下降
- 19. CUDA中的梯度下降優化
- 20. 隨機梯度下降實現 - MATLAB
- 21. 使用MXNet的梯度下降NDArray
- 22. 梯度(最速)下降的實現
- 23. 如何預測使用梯度下降
- 24. Logistic迴歸梯度下降在Matlab
- 25. 牛頓梯度下降線性迴歸
- 26. 梯度下降不按預期方式工作
- 27. matlab神經網絡梯度下降和均方誤差
- 28. 電梯應用程序性能下降
- 29. 在TensorFlow中實現梯度下降而不是使用隨其提供的梯度下降
- 30. 如何使用梯度下降優化方法從新數據中學習?
簡而言之 - 不,這不是一個有效的漸變,你不能只是構成方程式並插入它們:-) – lejlot