2013-02-06 53 views
1

我在Andrew Ng教授的講座或 this的幫助下使用圖31算法實施神經網絡。神經網絡 - 更新權重矩陣 - 反向傳播算法

我認爲我明白前向傳播和後向傳播很好,但與每次迭代後更新權重(θ)混淆。

Q1。何時和如何更新重量(theta)矩陣 - theta1,theta2? Q2302。大三角洲是什麼? [解決了,謝謝@ xhudik]

Q3。做我們必須添加+1

+2

大寫delta的含義是直接解釋下面的僞代碼:它是一個累加器的權重更新;對於具有相同(舊)權重矩陣的所有訓練樣本進行前向傳播。然後權重矩陣被更新。我認爲這叫做批量學習。 – Niki

+0

@nikie請你詳細說明一下,如何權重矩陣更新?我找不到任何東西或者可能是我錯過了一些東西 –

+0

如果您使用漸變下降法,您只需將梯度乘以一些學習速率即可加權。 – Niki

回答

6

Q1(輸入和隱藏層偏差單位):安德魯NG演講是偉大的:由@nikie(榮譽)

Q2解釋。但是,你指的是高層次的,想了解細節的人。這是什麼:http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html它給你更多的細節與有用的圖形

+0

hey @ xhudik,這很好,但我還沒有完成Q1!我真的不明白更新規則... –

+0

該鏈接是真棒!謝謝! :) –

+1

在傳遞數據的過程中會更新wights。每次傳球更新權重。如何 - 在文章中解釋。不幸的是,這不是不言自明,需要時間才能完全理解...... – xhudik