0

我有3個隱藏層的神經網絡(所以我總共有5層)。我想在每個隱藏層使用整流線性單位,但在最外層,我想在對數上應用Softmax。我想使用DNNClassifier。我已閱讀TensorFlow的official documentation地方設置他們說的參數activation_fn的值:如何在輸出層使用softmax激活函數,但在TensorFlow的中間層重新使用?

activation_fn:適用於每一層激活功能。如果沒有,將使用tf.nn.relu。

我知道我總是可以編寫我自己的模型並使用激活函數的任意組合。但由於DNNClassifier更具體,我想訴諸於此。到目前爲止,我有:

classifier = tf.contrib.learn.DNNClassifier(
    feature_columns=features_columns, 
    hidden_units=[10,20,10], 
    n_classes=3 
    # , activation_fn:::: I want something like below 
    # activation_fn = [relu,relu,relu,softmax] 
) 

回答

1

很抱歉地說,但這僅僅使用一個DNNClassifier是不可能的。 如您在示例中所示,您可以提供activation_fn

應用於每個圖層的激活函數。如果沒有,將使用tf.nn.relu。

但是對於每一層不是單獨的一個。爲了解決你的問題,你必須將這個分類器鏈接到另一個具有tanh操作功能的圖層。

+0

那麼,如何將分類器鏈接到單獨的圖層?這不等於鏈接到另一個分類器嗎?錯誤會怎樣反向傳播呢? –

相關問題