我在Octave中實現softmax迴歸。目前,我正在使用使用以下成本函數和衍生工具的非矢量化實現。 alt text http://ufldl.stanford.edu/wiki/images/math/7/6/3/7634eb3b08dc003aa4591a95824d4fbd.png alt text http://ufldl.stanford.edu/wiki/images/math/5/
。但是我對這個函數的安全實現有問題。 一個天真的實施將是這一個: Vector y = mlp(x); // output of the neural network without softmax activation function
for(int f = 0; f < y.rows(); f++)
y(f) = exp(y(f));
y /= y.sum();
這並不適用