0
A
回答
2
這取決於網絡佈局,學習率和正則化參數,如果你使用它們。
由於在反向傳播網絡中,您應該隨機初始化,您可能會因爲網絡的初始權重而感到幸運或不幸。然而,意外接近本地最小值的機會很小。
對於XOR函數,具有2個節點的單個隱藏層應該足夠了。
不應該需要偏置節點。正規化也不需要,因爲過度擬合通常不是XOR函數的問題。
關於學習率,我的頭頂0.05是好的,但我沒有確鑿的證據。試驗一下,看看你是否能找到更好的價值。
該課程在Coursera「機器學習」課程中非常直觀地討論。您可能想要查看其Preview網站上的視頻。在該頁面上查找「神經網絡:學習(第5周)」部分。
相關問題
- 1. 神經網絡:求解XOR
- 2. 神經網絡
- 3. 神經網絡
- 4. 的神經網絡
- 5. 神經網絡訓練的理想迭代
- 6. 神經網絡[ocr]
- 7. 神經網絡,python
- 8. MATLAB神經網絡
- 9. 神經網絡backpropogation
- 10. 神經網絡:「InverseLayer」
- 11. SOM - 神經網絡
- 12. sigmoid神經網絡
- 13. Spiking神經網絡
- 14. H2O.deeplearning神經網絡
- 15. 神經網絡MNIST
- 16. Hopfield神經網絡
- 17. RBF神經網絡
- 18. 我想在MATLAB中的神經網絡的X-OR代碼
- 19. 神經網絡的替代品
- 20. 神經網絡的疑惑python代碼
- 21. Python神經網絡:運行10次迭代
- 22. TensorFlow(神經網絡)FC輸出大小
- 23. 經過訓練的TensorFlow神經網絡的最大值/最小值NN
- 24. 實現偏倚神經網絡神經網絡
- 25. 迴歸神經網絡是一個神經網絡鏈嗎?
- 26. 最佳神經網絡優化算法
- 27. 的BP神經網絡
- 28. VB中的神經網絡
- 29. 神經網絡的實現
- 30. 神經網絡的Scilab
有了良好的初始化,你不需要訓練。 :) – alfa