1
我目前在tensorflow中建立一個CNN,我正在使用He正常權重初始化初始化我的權重矩陣。但是,我不確定我應該如何初始化我的偏見值。我將ReLU用作每個卷積層之間的激活函數。是否有標準的方法來初始化偏差值?神經網絡的初始偏差值
# Define approximate xavier weight initialization (with RelU correction described by He)
def xavier_over_two(shape):
std = np.sqrt(shape[0] * shape[1] * shape[2])
return tf.random_normal(shape, stddev=std)
def bias_init(shape):
return #???
謝謝正是我一直在尋找! –