0

標準backprop需要解決xor問題需要多少次的訓練集暴露量?另一種神經網絡能更快地解決它嗎?最小迭代XOR的神經網絡需求

什麼是最好的設置(隱藏層節點的數量,學習率)?

謝謝!

+3

有了良好的初始化,你不需要訓練。 :) – alfa

回答

2

這取決於網絡佈局,學習率和正則化參數,如果你使用它們。

由於在反向傳播網絡中,您應該隨機初始化,您可能會因爲網絡的初始權重而感到幸運或不幸。然而,意外接近本地最小值的機會很小。

對於XOR函數,具有2個節點的單個隱藏層應該足夠了。

不應該需要偏置節點。正規化也不需要,因爲過度擬合通常不是XOR函數的問題。
關於學習率,我的頭頂0.05是好的,但我沒有確鑿的證據。試驗一下,看看你是否能找到更好的價值。

該課程在Coursera「機器學習」課程中非常直觀地討論。您可能想要查看其Preview網站上的視頻。在該頁面上查找「神經網絡:學習(第5周)」部分。