我試圖通過Google DeepMind運行關注機制的實現。但是它是基於舊版本TensorFlow和我收到此錯誤 from tensorflow.models.rnn.rnn_cell import RNNCell, linear concat = linear([inputs, h, self.c], 4 * self._num_units, True) NameError: global na
多個漏失層我想再現,其中每個時間層之後是漏失層迴歸神經網絡,並且這些漏失層共享他們的面具。除其他外,該結構在A Theoretically Grounded Application of Dropout in Recurrent Neural Networks中有描述。 據我理解代碼,在MXNet實施了經常性的網絡模型沒有時間層之間施加任何輟學層;的功能,例如lstm(R API,Python A