比方說,我在構建神經網絡,像這樣:Tensorflow Dropout:如果我應用兩個丟失圖層會發生什麼?
x = tf.nn.conv2d(input, ...)
x = tf.nn.max_pool(x, ...)
x = tf.nn.dropout(x, keep_prob=1.)
x = tf.nn.thislayershallhavedropout(x,...)
x = tf.nn.dropout(x, keep_prob=.5)
請問這是告訴TensorFlow剛剛輟學層thislayershallhavedropout
的有效方法?
基本上,我想要做的就是告訴TensorFlow只在單層上使用dropout,而不是級聯回先前的層。
我不清楚你想做什麼的語義。 'dropout'是一個層操作,很像ReLU,池或激活。刪除(重置)一半權重不會直接影響先前或連續圖層中的權重;它在前向數據流的這一點上被應用。對後向傳播沒有影響。 – Prune
總之,100%保留的退出是空操作。 – Prune
@Prune輟學** **激活**。 dropconnect會降低權重。 – MaxB