-2
這裏是customLayer.py。pytorch中爲什麼grad_output requires_grad是False?
我很困惑以下的事情:
- 內層的輸入不是一個變量。然後在
backward
它變成一個變量,並要求梯度。爲什麼? grad_output
是一個變量,但require_grad是False。爲什麼不是真的?- 在我的自定義圖層中,我需要自定義向前和向後的操作。這很複雜。看到相同的鏈接。我已經在其中發佈了問題。
1.你是什麼意思的內層? 2. grad_output,正如其名稱所示是梯度計算的結果。爲什麼這個變量需要_grad? – Maximilian