我有一個隱藏層輸出數字A的神經網絡,然後我使用了一個使用A生成一個向量的函數。問題是TF可以在反向傳播時正確處理這個問題嗎?我曾在TF中嘗試過,它可以輸出一些東西,但我仍然不確定bp是否正常工作。 順便說一句,我用於生成從一個數矢量的功能是(V是從先前層的輸出,d是一個值I進料在,G是常數): def Generator(d, V):
dmn = []
for k in ran
這是一個可能的重複Tensorflow: How to get gradients per instance in a batch?。無論如何,我都會問這個問題,因爲沒有一個令人滿意的答案,這裏的目標有點不同。 我有一個非常大的網絡,我可以放在我的GPU上,但是我可以提供的最大批處理大小是32.任何比這更大的圖像會導致GPU耗盡內存。我想要使用更大的批次以獲得更精確的漸變近似值。 爲了具體說明
所以,我使用的是邁克爾·尼爾森的機器學習本書作爲我的代碼引用(這基本上是相同的):http://neuralnetworksanddeeplearning.com/chap1.html 有問題的代碼: def backpropagate(self, image, image_value) :
# declare two new numpy arrays for the update