1
考慮最終使用梯度下降優化方法的任何情況。假設你已經成功地創建了一個適合你的訓練集並且工作正常的假設。 經過一段時間後,您的算法會收到越來越多的新數據,它必須從中學習。如何使用梯度下降優化方法從新數據中學習?
問題: 1)該算法是否可以繼續被認爲是監督? 2)如果是這樣,是否有一種方法可以從新數據中學習,而不必重新遍歷所有(新+舊)數據?
考慮最終使用梯度下降優化方法的任何情況。假設你已經成功地創建了一個適合你的訓練集並且工作正常的假設。 經過一段時間後,您的算法會收到越來越多的新數據,它必須從中學習。如何使用梯度下降優化方法從新數據中學習?
問題: 1)該算法是否可以繼續被認爲是監督? 2)如果是這樣,是否有一種方法可以從新數據中學習,而不必重新遍歷所有(新+舊)數據?
沒有通用的回答你的問題,因爲這是機器學習一個非常廣泛的問題/問題,你應該做研究兩個主題:
有幾十種方法這兩個問題(和它並不真的不管你使用梯度下降,更重要的是什麼具體型號是您裝修),一切都依賴於特定的數據集和應用程序。
所以一般:
是的,它仍然是有監督的學習,雖然也有用於處理概念漂移的半監督算法和非監督算法。
謝謝你,美好的一天,先生! – SdSdsdsd