2017-06-30 53 views
1

修復我的輸入形狀問題後,我跑我的程序,問題是程序打印的總損失太高了(如果我比較它的快速入門教程)。蟒蛇TFlearn - 損失太高

我的目標是通過使用過去的數據(我有超過10M的條目與分數標記)預測未來入境擁堵,所以我不應該有培訓問題。

這裏是我的代碼:

​​

我的Excel文件,有這種樣子的(2列,100名000法分)

calculed_at , congestion 
1 , 56 
2 , 21 

這是結果會是什麼樣子(15劃時代) :

Training samples: 50000 
Validation samples: 0 
.... 
-- 
Training Step: 40625 | total loss: 15.27961 | time: 17.659s 
| Adam | epoch: 013 | loss: 15.27961 - acc: 0.7070 -- iter: 50000/50000 
-- 
Training Step: 43750 | total loss: 15.66268 | time: 17.549s 
| Adam | epoch: 014 | loss: 15.66268 - acc: 0.7247 -- iter: 50000/50000 
-- 
Training Step: 46875 | total loss: 15.94696 | time: 18.037s 
| Adam | epoch: 015 | loss: 15.94696 - acc: 0.7581 -- iter: 50000/50000 
-- 

你知道什麼會導致如此高的損失嗎?這看起來很奇怪,因爲印刷的精確度似乎不算太差。感謝您的幫助。

編輯:這似乎是,當我把論文的值,因爲當我嘗試剛纔我總損失超過280(以下0,3或略高於精度)的好時機。

+0

你介意共享csv文件進行調試嗎? –

+0

立即引起我的思考的是,這是一個完全線性的網絡。如果你看看tflearn API,你的激活默認爲'linear'。首先將其更改爲非線性,然後查看它是否有效。 此外,由於這是一個迴歸,爲什麼你的損失'categorical_crossentropy'?詳細闡述你的'data'和'labels'會有所幫助。 – jkschin

+0

@jkschin我不太習慣tflearn,我試過「softmax」而不是線性的,但並不是更好。對於categorical_crossentropy,我使用它是因爲它在快速入門教程中,我不知道我應該選擇哪一種。通過詳細闡述數據和標籤,你的意思是什麼? –

回答

1

對於時間序列,您可以通過考慮時間窗的幀來構建輸入/輸出樣本。在每個窗口中,如果樣品是{0, 1, ...N},請選擇第一個N-1樣品作爲輸入,最後一個樣品作爲輸出。然後你可以做迴歸來做time prediction