在Andrew Ng的講義中,他們使用LBFGS並獲得一些隱藏功能。我可以使用漸變下降來產生相同的隱藏功能嗎?所有其他參數都是相同的,只需更改優化算法即可。代替LBFGS,在稀疏自動編碼器中使用梯度下降
因爲當我使用LBFGS時,我的autoencoder可以產生與講義中相同的隱藏特性,但是當我使用梯度下降時,隱藏層中的特徵不見了,看起來完全是隨機的。具體來說,爲了優化成本函數,我實現了1)成本函數,2)每個權重和偏差的梯度。並將它們投入到scipy優化工具箱中以優化成本函數。這個設置可以給我合理的隱藏功能。
但是當我改變爲漸變下降。我試圖讓「權重 - 重量梯度」和「偏差 - 偏差梯度」。但是隱藏的功能看起來完全是隨機的。
有人可以幫我知道原因嗎?謝謝。
'他們使用LBFGS並獲得一些隱藏的功能。我可以使用漸變下降來產生相同的隱藏特徵嗎? - 原則上是。至少如果兩者都收斂。然而,對於某些功能,漸變下降可能會非常緩慢,因此您可能無法在合理的時間內達到局部最佳狀態。如果你想自己實現優化,那麼步長的選擇將是至關重要的。 – cel