你在找什麼是某種形式的遞歸神經網絡;以某種方式或另一種方式存儲「上下文」的網絡。這種網絡的例子是LSTM和GRU。所以基本上,你必須依次輸入你的數據。根據上下文和當前輸入,網絡將預測哪個標籤最有可能。
似乎似乎需要與數據和結果有一些數學關係。這裏的ID沒有; ID也可以是任何符號。
數據和結果之間有明確的關係,這可以通過權重和偏差來表達。
那麼它會如何工作?首先你需要編碼你的輸入和輸出。所以基本上,您想要預測用戶已經與之交互過的一組標籤之後哪個標籤最有可能。
如果您有5個標籤:A,B,C,D,E,這意味着您將有5個輸入和輸出:[0, 0, 0, 0, 0]
。
如果您的標籤爲A,則數組將爲[1, 0, 0, 0, 0]
,如果是D,則將爲[0, 0, 0, 1, 0]
。
因此,LSTM和GRU的關鍵是數據應該是連續的。所以基本上,你輸入所有看到的標籤一個接一個。因此,如果用戶已經觀看了A,B和C:
activate: [1,0,0,0,0]
activate: [0,1,0,0,0]
// the output of this activation will be the next predicted label
activate: [0,0,1,0,0]
// output: [0.1, 0.3, 0.2, 0.7, 0.5], so the next label is D
而且你應該總是訓練網絡,從而使在噸輸出爲噸+ 1