1
我目前正試圖趕上在Coursera安德魯吳的機器學習過程中,我有麻煩一點點......如何計算反向傳播後輸出層中theta(權重?)的新值?
在他的反傳的視頻,他解釋說,我們需要計算big_delta
big_delta = big_delta + delta(l+1) * a(l)^t
所有層升
然而,如何計算big_delta用於當我沒有增量的輸出層(L + 1)?
,他解釋了這個視頻是在這裏:https://www.youtube.com/watch?v=wmfpS5fKFeY
我迷路了。
哦~~,我應該想出了一個!謝謝。只是100%,在這種情況下x是隱藏層的輸出,而不是來自訓練集的輸入。對? –
@ EssamAl-Mansouri x是第一次均衡中顯示的。如果A = Sigmoid(= S(x)),則dA(x)= dS(x)= <計算的信號> *(1- <計算的信號>)。 –
@ EssamAl-Mansouri我加了一些澄清的答案。 –