0
我有一個隱藏層輸出數字A的神經網絡,然後我使用了一個使用A生成一個向量的函數。問題是TF可以在反向傳播時正確處理這個問題嗎?我曾在TF中嘗試過,它可以輸出一些東西,但我仍然不確定bp是否正常工作。當你在中間層重組你的輸出時,tensorflow如何處理反向傳播
順便說一句,我用於生成從一個數矢量的功能是(V
是從先前層的輸出,d
是一個值I進料在,G
是常數):
def Generator(d, V):
dmn = []
for k in range(G):
d1 = tf.exp(-(((V*d-(-1+k*0.2))\**2)/(2*0.2\**2)))
dmn.append(d1)
return dmn
謝謝!我沒有看到任何錯誤,所以我會假設它的工作原理。但是當我試圖通過compute_gradient獲取權重時,會彈出一個錯誤消息,說我需要以特定大小的張量進行提供。 –
因爲你沒有正確地向張貼者提供張量到tf.placeholder。這與漸變無關。 –