2017-03-22 119 views
0

我正在運行一個tensorflow的代碼。在終端上,它給了我培訓和測試的準確性和步長的價值。有人可以請解釋這些條款或提供任何材料,我可以閱讀了解這些條款以及卷積神經網絡的隨機梯度下降方法培訓和測試的準確性和步長

+0

您的項目的目的是什麼? – iFlo

+0

我想使用卷積神經網絡來訓練我的網絡來檢測一個特定的自旋配置。在代碼訓練步驟是2000年,當我運行這個代碼時,它給了我每100步之後的值,像這樣 – eman

+0

步0,訓練準確性0.5測試準確性0.500 – eman

回答

0

從您在終端中顯示,您實際上使用tflearn。這也應該顯示出損失或成本,即您的預測與實際產出的差距。低損耗和高精度=更好的模型。 隨機梯度下降(SGD)允許學習速率衰減。這裏有一個很好的解釋http://tflearn.org/optimizers/#stochastic-gradient-descent 在毛氈方面的菜單中,您可以找到關於損耗,訓練,精度,圖層等的所有信息。 而且您實際上可以選擇顯示這些東西的頻率(我指的是在哪個步驟)。 從批量大小,學習率,迭代次數,圖層數量和節點數量來看,您可以使用所有這些功能並查看哪些對您的數據集更好。

+0

好吧,我在閱讀了關於SGD方法後得到了所有這些術語的含義。感謝您的幫助 – eman

+0

但是如果在2000個訓練步驟後我獲得99%的測試精度,並且我仍然繼續訓練我的網絡直到4000個訓練步驟。然後我的結果顯示在2000年的訓練步驟之後,有時候測試的準確率是97%,有時甚至小於這個值意味着它正在改變。它是什麼意思? @CrisH可以請你解釋一下,或者建議一些話題或鏈接,以瞭解背後的原因。 – eman

+0

我想你應該在2000步後停下來。也許你沒有足夠的4000數據。你必須防止過度配合。您是否也將測試數據提供給您的網絡?看看模型是如何工作也是非常重要的。有一些很好的閱讀關於過度配合,如http://machinelearningmastery.com/overfitting-and-underfitting-with-machine-learning-algorithms/以及http://machinelearningmastery.com/a-simple-intuition-for-overfitting/它有助於!這是我爲建立網絡而讀的 – CrisH

相關問題