1
我正在讀這篇文章Understanding Deep learning requires rethinking generalization,我不明白爲什麼它在第5頁的第2.2節「含義,Redemacher的複雜性」中說到界限是微不足道的?本文「深度學習需要重新思考泛化」
由於我們randomiyation測試表明,許多神經網絡擬合訓練隨機標籤完全設置,我們預計拉德(H)的對應型號H級這當然是一個微不足道的上限= 1在Rademacher複雜性上不會導致實際設置中的有用泛化界限。
顯然我錯過了Radmacher的一些知識,因爲我不明白他們如何得出這個結論。我會很感激,如果有人可以解釋給我
我會一步一步來檢查我是否真的明白了 1)根據論文,在研究的基礎上,所有網絡都能訓練到0訓練誤差。 2)Rademacher的複雜性是檢查他們是否能夠適應具有隨機標籤的訓練集。 3)如果是,那麼它給出1,並且因爲在所有情況下它將管理我們具有n * 1的總和,由n。 4)我們得到一個結果1 5)它被認爲是微不足道的,因爲正如你在本文中所說的函數是由1所界定的那樣。而我在紙上找不到這個界限! –
是的,'它。 'h'的範圍是1,因爲它表示'x_i'具有標籤1的概率(這是一種常見的符號) – fonfonx