2
A
回答
2
是的,它可能還是。從某種意義上說,輟學是正規化,但比L1標準更爲微妙。它可以防止原始文件中描述的特徵檢測器的過度共同適應。
您可能不希望網絡學習依賴於一個功能或只是一小組功能,即使這是您訓練集中的最佳功能,因爲它可能不是新數據中的情況。直觀地說,即使在訓練集中沒有像這樣的示例圖像(即因爲臉部高級特徵已經被放棄了一些分數),那麼經過訓練以識別圖像中的人的輟學網絡在面部模糊的情況下仍然可以識別它們的時間);一個沒有丟失的網絡訓練可能不會(因爲臉部特徵可能是檢測人員的最佳單一特徵之一)。你可以認爲退出是一定程度的強迫概念泛化。
從經驗上講,當使用失落時,帶有失落產生的特徵檢測器的結構更爲結構化(例如,對於圖像:接近Gabor濾波器,對於前幾層)沒有丟失,它們更接近隨機(可能是因爲該網絡接近Gabor濾波器,它使用隨機濾波器的特定線性組合來向前收斂,如果它可以依賴於該組合的元素沒有被丟棄,則不存在向分離的梯度過濾器)。這也可能是一件好事,因爲它強制獨立的功能在早期實現爲獨立功能,這可能會導致稍後的低串擾。
相關問題
- 1. 1)從整個訓練集中訓練CNN和2)訓練集中的訓練集,然後是整個訓練集之間的區別是什麼?
- 2. 訓練數據集
- 3. 爲什麼我們需要正規化訓練MaxEnt?
- 4. 使用OpenNLP訓練大型數據集
- 5. 在大塊數據集上訓練SGDRegressor
- 6. Backpropogation中的標準化訓練集
- 7. 在矢量量化中的訓練集
- 8. Tesseract OCR無法正確訓練圖像
- 9. AdaBoost算法的訓練集
- 10. 更新ANN的訓練集
- 11. R訓練和測試集
- 12. 追加Tensorflow訓練集
- 13. Twitter主觀訓練集
- 14. Neuroph不能訓練集
- 15. 訓練集平衡策略
- 16. 表示訓練集與
- 17. FANN訓練數據集
- 18. 我們是否需要僅對訓練集的輸入段進行規範化?
- 19. FANN沒有正確訓練
- 20. 訓練集後歸一化應該怎樣測試集做
- 21. Nolearn DBM無法訓練
- 22. 如何在非常大的數據集上訓練Word2vec?
- 23. 使用大型數據集在Spark上訓練BloomFilter
- 24. 用大數據集訓練張量流RNN
- 25. 如何在MATLAB中訓練大數據集以進行分類
- 26. 訓練數據集羣的BOW預測
- 27. 在weka中使用均衡訓練集
- 28. 將屬性添加到訓練集
- 29. 中提琴瓊斯實驗(訓練集)
- 30. SegNet - 訓練我自己的數據集