0
多個漏失層我想再現,其中每個時間層之後是漏失層迴歸神經網絡,並且這些漏失層共享他們的面具。除其他外,該結構在A Theoretically Grounded Application of Dropout in Recurrent Neural Networks中有描述。mxnet:與共享掩模
據我理解代碼,在MXNet實施了經常性的網絡模型沒有時間層之間施加任何輟學層;的功能,例如lstm
(R API,Python API)的dropout
參數實際上定義在輸入降。因此我需要從頭開始重新實現這些功能。
然而,漏失層似乎不採取掩模限定作爲參數的變量。
是否有可能進行多次輟學層在計算圖的不同的地方,但分享他們的面具?
有一些工作可以解決RNG問題,但您仍然無法指定掩碼。 –
鏈接到[PR](https://github.com/apache/incubator-mxnet/pull/9366)。 –