1
修復我的輸入形狀問題後,我跑我的程序,問題是程序打印的總損失太高了(如果我比較它的快速入門教程)。蟒蛇TFlearn - 損失太高
我的目標是通過使用過去的數據(我有超過10M的條目與分數標記)預測未來入境擁堵,所以我不應該有培訓問題。
這裏是我的代碼:
我的Excel文件,有這種樣子的(2列,100名000法分)
calculed_at , congestion
1 , 56
2 , 21
這是結果會是什麼樣子(15劃時代) :
Training samples: 50000
Validation samples: 0
....
--
Training Step: 40625 | total loss: 15.27961 | time: 17.659s
| Adam | epoch: 013 | loss: 15.27961 - acc: 0.7070 -- iter: 50000/50000
--
Training Step: 43750 | total loss: 15.66268 | time: 17.549s
| Adam | epoch: 014 | loss: 15.66268 - acc: 0.7247 -- iter: 50000/50000
--
Training Step: 46875 | total loss: 15.94696 | time: 18.037s
| Adam | epoch: 015 | loss: 15.94696 - acc: 0.7581 -- iter: 50000/50000
--
你知道什麼會導致如此高的損失嗎?這看起來很奇怪,因爲印刷的精確度似乎不算太差。感謝您的幫助。
編輯:這似乎是,當我把論文的值,因爲當我嘗試剛纔我總損失超過280(以下0,3或略高於精度)的好時機。
你介意共享csv文件進行調試嗎? –
立即引起我的思考的是,這是一個完全線性的網絡。如果你看看tflearn API,你的激活默認爲'linear'。首先將其更改爲非線性,然後查看它是否有效。 此外,由於這是一個迴歸,爲什麼你的損失'categorical_crossentropy'?詳細闡述你的'data'和'labels'會有所幫助。 – jkschin
@jkschin我不太習慣tflearn,我試過「softmax」而不是線性的,但並不是更好。對於categorical_crossentropy,我使用它是因爲它在快速入門教程中,我不知道我應該選擇哪一種。通過詳細闡述數據和標籤,你的意思是什麼? –