我想知道我是否可以簡單地將缺失應用到TensorFlow中的卷積中。它將如何應用?卷積遮罩的權重是否隨着輸入「滑動」而隨機設置爲零?TensorFlow中的卷積層是否支持退出?
回答
您可以對任意輸入張量應用壓差。這個輸入如何計算並不重要;輸入的每個元素都將保存(並縮放,見下文)或設置爲零。
從https://www.tensorflow.org/api_docs/python/tf/nn/dropout:
以概率
keep_prob
,輸出由1/keep_prob
放大所述輸入元件,否則輸出0
。縮放使得預期的總和不變。默認情況下,每個元素獨立保存或刪除。
例如:
conv = tf.nn.conv2d(...)
drop = tf.nn.dropout(conv, keep_prob=0.5)
雖然一些結構實現DropoutWrapper和用它做不同的東西沒有相互作用。而且似乎還有多種卷積層丟失方法(標準丟失和MC丟失):https://arxiv.org/abs/1506.02158 –
您是否指RNN的DropoutWrapper(https:// www。 tensorflow.org/versions/r0.10/api_docs/python/rnn_cell.html#DropoutWrapper)?根據它的文件,它也只是「輸入和/或輸出丟失,在狀態中從不使用丟棄」。看來其他的退出方式目前還沒有在TensorFlow中實現。 – fwalch
- 1. 修正Tensorflow中的去卷積層
- 2. 是否存在TensorFlow解卷積?
- 3. Tensorflow:在卷積
- 4. 使用Tensorflow實現卷積圖層
- 5. Tensorflow中的Dialated卷積
- 6. 卷積網絡:完全連接層中的退出
- 7. 獲得使用反捲積tf.nn.conv2d_transpose層的輸出形狀tensorflow
- 8. 卷積層輸出尺寸
- 9. Tensorflow如何將連接層連接到卷積層
- 10. Tensorflow中是否有卷積函數來應用Sobel濾波器?
- 11. Keras卷積層輸出的可視化
- 12. TensorFlow卷積碼優化
- 13. Tensorflow中的卷積與Conv2d函數
- 14. Tensorflow中的圖像卷積圖像
- 15. TensorFlow中的自定義空間卷積
- 16. Keras中的卷積層中的權重
- 17. 在TensorFlow中卷積整數張量
- 18. 具有解卷積層的Concat FC層
- 19. 卷積層尺寸縮減
- 20. 瞭解Caffe卷積層
- 21. 二維數組的TensorFlow卷積
- 22. 使用C中的卷積不支持的協議
- 23. 卷積網絡錯誤; Tensorflow - 值錯誤
- 24. Tensorflow卷積tf.nn.conv2d參數大步
- 25. 可視化張量流中卷積層的輸出
- 26. 第二卷積層的輸入尺寸?
- 27. 3通道圖像的卷積層
- 28. 退出並保持循環上層的
- 29. Tensorflow 1.3 opencl支持
- 30. Tensorflow支持Python 3.6
的差施加在卷積的輸出,存在與濾波器權重 –