0
我曾經看到卷積層被定義爲Keras
關於的方法來設置激活和BatchNormalization在Keras
x = Convolution2D(128, kernel, kernel, border_mode='same')(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)
x = Convolution2D(128, kernel, kernel, border_mode='same')(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)
如下這在我看來,Activation
可也設置在Convolution2D
爲好。如上所述,在獨立層中設置Activation
的原因是什麼?此外,在Convolution2D
和Activation
之間,有BatchNormalization
,我們可以在Activation
之後移動BatchNormalization
嗎?那麼會有什麼不同嗎?