2017-02-06 71 views

回答

1

它實現自我從穩定:

Self-stabilized deep neural network," P. Ghahremani and J. Droppo, ICASSP 2016 

而且這裏的直接鏈接到文件:https://www.microsoft.com/en-us/research/wp-content/uploads/2016/11/SelfLR.pdf

+0

感謝您的反饋意見。我們將更新教程並提供更多信息。 –

+0

謝謝。請閱讀文件。聽起來像一個偉大的功能。據我所知,這可以添加到任何深層神經網絡,而不僅僅是遞歸神經網絡,對嗎?另外,使用它的最好方法是將它包括在每個圖層之後,類似於批量標準化?這會取代批量標準化嗎? –

+0

根據我的經驗,穩定器總是會導致收斂速度的提高。然而,批量標準化一直更加有效;但批處理標準化不能在循環中有效使用。例如,在具有多個經常性LSTM層的語言處理場景中,我的準則是:(1)在圖層之間使用BatchNormalization; (2)在循環步進函數(在h和c上)內使用穩定器,但不在輸入(x)上使用穩定器,因爲它已經由BatchNorm標準化。 –