如果輸出是正切功能,然後我得到-1之間的數字和1如何將RNN轉換爲迴歸網?
我怎麼去輸出轉換到我的y值(發生的規模約爲15右現在,但會因數據而異)?
還是我限制在某種已知範圍內變化的功能......?
如果輸出是正切功能,然後我得到-1之間的數字和1如何將RNN轉換爲迴歸網?
我怎麼去輸出轉換到我的y值(發生的規模約爲15右現在,但會因數據而異)?
還是我限制在某種已知範圍內變化的功能......?
只要刪除tanh,你的輸出將是一個不受限制的數字。你的錯誤函數應該是平方誤差。
如果這不是由框架自動完成的,您可能必須更改back-prop的漸變計算。
編輯添加:您幾乎肯定希望保持經常性連接之間的tanh(或其他非線性),因此只能將其移除以用於輸出連接。
在大多數用於分類的RNN中,大多數人在它們的LSTM或tanh層上使用softmax層,所以我認爲你可以用一個線性輸出層來代替softmax。這是一些人爲常規神經網絡和卷積神經網絡所做的。你仍然可以從隱藏層獲得非線性,但是你的輸出不會被限制在一定的範圍內,比如-1和1.成本函數可能是像提到的larspars這樣的平方誤差。
啊,很好。如果我有一個LSTM網絡,我需要在LSTM之上有一層,沒有激活功能? – bordeo
對,正好。 – larspars
並不意味着讓這個懸掛這麼久。 – bordeo