我正在使用TensorFlow分類使用LeNet網絡的圖像。我使用AdamOptimizer來最小化成本函數。當我開始訓練模型時,我可以觀察到訓練準確性和驗證準確性以及成本正在發生變化,有時會減少,有時會增加。Tensorflow:何時停止由於最佳(最低)成本而進行的培訓?
我的問題:我們應該什麼時候停止培訓?我們如何知道優化器會找到最低成本?我們應該做多少次迭代訓練?我們可以設置一個變量或條件以最低的成本停止嗎?
我的解決方案是定義一個全局變量(min_cost),並在每次迭代中檢查成本是否降低,然後保存會話並用新成本替換min_cost。最後,我將以最低的費用獲得保存的會話,
這是一個正確的方法嗎?
由於提前,
所以,在第一段中,你說我需要訓練模型以進行非常多的迭代,它會在某個點收斂,對嗎? – Mohammad
好的,你必須設定一個合理的錯誤目標 - 迭代次數應該是你知道網絡應該收斂到最小值的一個數量。最大迭代是目標錯誤的回退。 –
因此,我應該通過試錯法找到最大迭代和目標錯誤? – Mohammad