我有一個神經網絡,有N個輸入節點和N個輸出節點,並且可能有多個隱藏層和復現,但是我們先忘了它們。神經網絡的目標是在給定N維值X的情況下學習N維變量Y *。假設神經網絡的輸出是Y,在學習後應該接近Y *。我的問題是:是否有可能得到輸出Y *的神經網絡的逆?也就是說,如何得到放入神經網絡時產生Y *的值X *? (或接近它的東西)神經網絡的局部反轉
問題的一個主要部分是N非常大,一般爲10000或100000的數量級,但如果有人知道如何解決這個問題,對於沒有重複或隱藏層的小型網絡這可能已經有所幫助。謝謝。
你有關於這種方法的數值穩定性的細節嗎?在我看來,它可能會出現可怕的錯誤。 – 2017-01-31 04:11:25
是的,它可以,例如如果| W2p *(tanh^-1(Y) - b2)|> 1,函數參數將超出tanh^-1(\ cdot)域。 – 2017-01-31 12:30:55