通常反向傳播神經網絡存在消失梯度的問題。 我發現卷積神經網絡(CNN)一些如何擺脫這種消失的漸變問題(爲什麼?)。爲什麼要對卷積神經網絡進行預訓練
也在一些論文中討論了CNN的一些預訓練方法。 有人可以解釋我以下嗎?
(1) the resons for pretraining in CNN and
(2) what are the problems/limitations with CNN?
(3) any relavent papers talking about the limitation of CNN?
在此先感謝。
只是關於第一點。 CNN作爲其他類型的深度學習方法試圖學習稀釋反向傳播算法的能力的許多節點和層。輸出節點的錯誤差異爲10%可能導致第一層更新0.000001%。預訓練(無監督方法)不會受到這些問題的困擾,可以在使用反向傳播進行微調之前將網絡更新爲有意義的權重(並將模式與我們所需的輸出相關聯)。 – ASantosRibeiro 2014-10-17 12:50:59
嘗試在交叉驗證中查找:http://stats.stackexchange.com/search?q=cnn – killogre 2014-10-28 12:06:39