2017-01-15 46 views
0

多個漏失層我想再現,其中每個時間層之後是漏失層迴歸神經網絡,並且這些漏失層共享他們的面具。除其他外,該結構在A Theoretically Grounded Application of Dropout in Recurrent Neural Networks中有描述。mxnet:與共享掩模

據我理解代碼,在MXNet實施了經常性的網絡模型沒有時間層之間施加任何輟學層;的功能,例如lstmR APIPython API)的dropout參數實際上定義在輸入降。因此我需要從頭開始重新實現這些功能。

然而,漏失層似乎不採取掩模限定作爲參數的變量。

是否有可能進行多次輟學層在計算圖的不同的地方,但分享他們的面具?

回答

1

根據討論here,這是不可能指定掩模,通過隨機種子不會對輟學的隨機數發生器產生影響。

+0

有一些工作可以解決RNG問題,但您仍然無法指定掩碼。 –

+0

鏈接到[PR](https://github.com/apache/incubator-mxnet/pull/9366)。 –