2017-03-31 56 views
1

這個問題類似於這個問題:How to use a linear activation function in TensorFlow?但是不一樣。Tensorflow Layers Api線性激活功能

在最後的密集層上,我想輸出28個線性激活的節點,而不是sigmoid。我公司採用新圖層的API如下所示:https://www.tensorflow.org/tutorials/layers

我的最後一層堆棧看起來是這樣但是:

flat = tf.reshape(pool3, [-1, 128 * 128 * 128]) #width (after poolings), height (after poolings), filters 
dense1 = tf.layers.dense(inputs=flat, units=4096, activation=tf.nn.relu) 
dense2 = tf.layers.dense(inputs=dense1, units=4096, activation=tf.nn.relu) 
dropout = tf.layers.dropout(
      inputs=dense2, rate=0.4, training=mode == learn.ModeKeys.TRAIN) 
output = tf.layers.dense(inputs=dropout, units=28) 

如何在保證28個節點的輸出是線性的事實?在CNTK中,指定激活函數爲None(請參閱:cntk linear activation function in layers?

指針非常感謝。謝謝!

回答

2

documentation of dense說,有關的activation參數:

activation:激活功能(可贖回)。將其設置爲無以維持線性激活。

None是默認值,所以不指定激活將其設置爲線性。

+0

完美;會給那個旋轉。在樣本後面發現,他們運行的是softmax和hot,所以這是有道理的。 –