0
在張量流中,tf.train.GradientDescentOptimizer對所有默認情況下的變量執行梯度下降。我可以只爲我的一些變量做梯度下降並鎖定其他變量嗎?如何對張量流中的所有變量進行梯度下降
在張量流中,tf.train.GradientDescentOptimizer對所有默認情況下的變量執行梯度下降。我可以只爲我的一些變量做梯度下降並鎖定其他變量嗎?如何對張量流中的所有變量進行梯度下降
鎖住你不想訓練就可以使用tf.Variable(..., trainable=False)
我可以改變的變量,從訓練的非可訓練的人的人?我建立了一個參數爲W和輸入爲X的模型,在訓練W之後,我希望這些W被固定,並使X成爲新的變量以最大化模型內部的某些東西,我該怎麼辦?我可以重建模型,留下一個新的W到不可訓練的和一個新的X作爲可訓練變量,這樣我可以使用梯度下降優化器來訓練這些X? – zzitaI
是的,只需創建一個新的圖形和一個新的會話,並使用之前的圖形結果初始化新變量。 – fabrizioM