在MNIST for LM Beginners教程中,我相信這是一個錯誤。我認爲這部分是不準確的:MNIST爲ML初學者教程錯誤
使用小批量的隨機數據被稱爲隨機訓練 - 在這種情況下,隨機梯度下降。
隨機梯度下降是用於更新參數每個訓練樣例(http://sebastianruder.com/optimizing-gradient-descent/index.html#gradientdescentvariants),和在100尺寸的教程批次所使用的,我相信會是小批量梯度下降來代替。
我可能是錯的,但不應該這樣改變?
在神經網絡訓練,SGD通常是指優化與小批 –