0
我正在訓練一個神經網絡(一個RNN頂部的CNN),使用theano,並使用RMSPROP進行優化(我正在使用lasagne實現)。 我的問題是,每次我訓練網絡時,我都會得到完全不同的結果(準確性)。我正在使用固定種子初始化參數,當我使用SGD進行訓練時問題不會發生,所以我想RMSPROP是導致問題的原因。RMSPROP訓練給出了不同的結果
這是RMSPROP的正常行爲嗎?處理這個問題的最佳做法是什麼?我應該多次訓練網絡並採用最佳模型?
我還在每次使用一個示例進行優化(我的訓練集很小,所以我沒有使用小批量或批次),這是RMSPROP的一個良好做法嗎?