2017-10-04 45 views
0

我有一個隱藏層輸出數字A的神經網絡,然後我使用了一個使用A生成一個向量的函數。問題是TF可以在反向傳播時正確處理這個問題嗎?我曾在TF中嘗試過,它可以輸出一些東西,但我仍然不確定bp是否正常工作。當你在中間層重組你的輸出時,tensorflow如何處理反向傳播

順便說一句,我用於生成從一個數矢量的功能是(V是從先前層的輸出,d是一個值I進料在,G是常數):

def Generator(d, V): 
    dmn = [] 
    for k in range(G): 
     d1 = tf.exp(-(((V*d-(-1+k*0.2))\**2)/(2*0.2\**2))) 
     dmn.append(d1) 
    return dmn 

回答

1

是,tensorflow可以通過張量流圖中表示的幾乎所有可微分轉換進行反向傳播,並且當反向傳播不可能發生時,您將看到可見的錯誤。

+0

謝謝!我沒有看到任何錯誤,所以我會假設它的工作原理。但是當我試圖通過compute_gradient獲取權重時,會彈出一個錯誤消息,說我需要以特定大小的張量進行提供。 –

+0

因爲你沒有正確地向張貼者提供張量到tf.placeholder。這與漸變無關。 –

相關問題