2013-09-28 24 views
1

考慮最終使用梯度下降優化方法的任何情況。假設你已經成功地創建了一個適合你的訓練集並且工作正常的假設。 經過一段時間後,您的算法會收到越來越多的新數據,它必須從中學習。如何使用梯度下降優化方法從新數據中學習?

問題: 1)該算法是否可以繼續被認爲是監督? 2)如果是這樣,是否有一種方法可以從新數據中學習,而不必重新遍歷所有(新+舊)數據?

回答

3

沒有通用的回答你的問題,因爲這是機器學習一個非常廣泛的問題/問題,你應該做研究兩個主題:

  • 在線學習 - 這是算法的家庭/模型可以從新數據中學習而不需要完全重新學習。最簡單的這種模式是樸素的貝葉斯,但即使是支持向量機也可以這樣訓練
  • 概念漂移 - 這是一個更高級的話題,它不僅在新數據被添加時產生,而且舊數據可能會「錯誤」長實,真)

有幾十種方法這兩個問題(和它並不真的不管你使用梯度下降,更重要的是什麼具體型號是您裝修),一切都依賴於特定的數據集和應用程序。

所以一般:

  1. 如果您的問題似乎是完全靜止的,沒有什麼隨時間的變化,和您滿意的結果,你可以忽略新的數據
  2. 如果問題似乎是(或者你對其準確性不滿意) - 嘗試在線學習(或者,如果對於你的特定模型是不可能的 - 一次再培訓整個模型一段時間)
  3. 如果問題似乎非常動態大波動) - 考慮概念漂移解決方案

是的,它仍然是有監督的學習,雖然也有用於處理概念漂移的半監督算法和非監督算法。

+0

謝謝你,美好的一天,先生! – SdSdsdsd