1
這個問題類似於這個問題:How to use a linear activation function in TensorFlow?但是不一樣。Tensorflow Layers Api線性激活功能
在最後的密集層上,我想輸出28個線性激活的節點,而不是sigmoid。我公司採用新圖層的API如下所示:https://www.tensorflow.org/tutorials/layers
我的最後一層堆棧看起來是這樣但是:
flat = tf.reshape(pool3, [-1, 128 * 128 * 128]) #width (after poolings), height (after poolings), filters
dense1 = tf.layers.dense(inputs=flat, units=4096, activation=tf.nn.relu)
dense2 = tf.layers.dense(inputs=dense1, units=4096, activation=tf.nn.relu)
dropout = tf.layers.dropout(
inputs=dense2, rate=0.4, training=mode == learn.ModeKeys.TRAIN)
output = tf.layers.dense(inputs=dropout, units=28)
如何在保證28個節點的輸出是線性的事實?在CNTK中,指定激活函數爲None(請參閱:cntk linear activation function in layers?)
指針非常感謝。謝謝!
完美;會給那個旋轉。在樣本後面發現,他們運行的是softmax和hot,所以這是有道理的。 –