我有點困惑隱藏層之間激活的用途是什麼,我知道隱藏層和輸出之間的softmax函數是將概率壓縮到[0,1],但隱藏層之間使用sigmoid函數是什麼? 隱藏層之間的深度學習激活功能?
-1
A
回答
4
目的是非線性行爲添加到網絡時,沒有它可以表示的官能團的數目是低的,如果你沒有非線性激活函數,網絡是完全線性的,這對於大多數問題並不是很有用。
每個添加非線性激活的圖層也會影響網絡輸出的非線性行爲。這是增加更多圖層可以提高準確性的一個原因,因爲網絡可以更好地表示不同的功能。
1
1.向網絡添加非線性表示。
2.請使用Relu,prelu,lrelu代替sigmoid,tanh,因爲減少了漸變梯度問題。
相關問題
- 1. 深度學習與機器學習
- 2. 圖像相似度 - 深度學習與手工製作功能
- 3. 帶有1個隱藏層的神經網絡無法學習棋盤功能?
- 4. 關於向後卷積層的深度學習
- 5. 當能見度時隱藏元素之間的差距:隱藏
- 6. 如何應用UI學習自動化的深度學習?
- 7. 深度學習的數據增強
- 8. 深度學習的混亂矩陣
- 9. 雲中深度學習的選擇iOS
- 10. 深度學習網絡的分類
- 11. Keras:密集層和激活層之間的形狀不匹配
- 12. 我想用深入的學習來調用分數的功能
- 13. Tensorflow激活功能
- 14. 功能激活Sharepoint
- 15. 尺寸與深度學習模型
- 16. 如何培養深度學習網絡
- 17. Numpy-深度學習,培訓示例
- 18. 摩卡,深度學習工具
- 19. 深度學習power8 sxm2 nvlink與ubuntu + p100
- 20. 圖像分類深度學習
- 21. 深度學習手部檢測
- 22. Keras深度學習模型到android
- 23. 深度學習word2vec爲小文本
- 24. H2O tensorflow深度學習演示失敗
- 25. 哪些算法涉及深度學習?
- 26. SharePoint 2007:通過代碼不激活功能激活事件激活功能
- 27. 哪個深度學習庫支持在手機上使用的深度學習模型的壓縮?
- 28. 學習指標功能,ML
- 29. 努力學習殼功能
- 30. 學習組件NUM功能
我想添加[通用逼近定理](https://en.wikipedia.org/wiki/Universal_approximation_theorem),其中指出至少有一個(非線性)隱藏層(無限大小)的神經網絡可以近似任何功能。 – Lunaweaver