2014-04-04 63 views
11

我想解決一些分類問題。看來很多經典的方法都遵循類似的範例。也就是說,用一些訓練集訓練一個模型,並用它來預測新實例的類標籤。在機器學習中使用反饋或強化?

我想知道是否有可能在範式中引入一些反饋機制。在控制理論中,引入反饋迴路是提高系統性能的有效方法。我現在頭腦中一個簡單的方法是,首先我們先從一組初始實例開始,然後用它們訓練一個模型。然後,每當模型做出錯誤的預測時,我們將錯誤的實例添加到訓練集中。這不同於盲目放大訓練集,因爲它更具針對性。這可以看作是控制理論語言中的某種負反饋

有沒有對反饋方法進行研究?任何人都可以點亮一下嗎?

+1

仰望提升,這基本上是你所描述的。 –

+2

是否應該遷移到http://stats.stackexchange.com/? – sashkello

+0

smwikipedia:我在完全相同的問題。 http://stackoverflow.com/questions/36068292/incorporating-user-feedback-in-a-ml-model。你想分享你的發現嗎? –

回答

1

我已經使用了這樣的反饋我所做的機器學習項目。它允許訓練較少的數據(因此訓練速度更快),而不是隨機選擇數據。與使用隨機選擇的訓練數據相比,模型精度也提高得更快。我正在處理圖像處理(計算機視覺)數據,所以我正在做的另一種選擇是添加聚簇錯誤(錯誤)數據,而不是添加每一個錯誤數據。這是因爲我認爲我總會有一些失敗,所以我對正數據的定義是當它聚集在圖像的相同區域時。

+0

我不認爲這將適用於每種機器學習方法。在失敗的數據點上進行訓練使其更好的事實並不明顯(可能是,它在集合外的所有點上開始失敗)。你的經驗只是一個數據點,請一些學術研究參考資料支持。還要提及您使用的確切方法,因爲行爲可能會有驚人的不同。否則我覺得有點懷疑,因爲我的經驗告訴我這種做法不如往常,但我只是另一個數據點...... – sashkello

+1

如果SO上的每個答案都必須得到學術研究參考文獻的支持,那麼只會有一個少數被接受的答案。我將這種技術應用於OCR,圖像相似性和行人檢測。我使用了GentleBoost。處理圖像時,負樣本的數量幾乎是無限的,而正樣本的數量非常有限,所以從無限可能性中使用隨機選擇的數據效率不高。訓練時間會更長,準確性會更低。 – rold2007

+0

並非所有關於SO的答案都應該以參考爲後盾。這應該。否則,這只是一個人的意見。所以,你在三個項目中使用了這種技術,在答案中提到了這個問題,它幫助了哪些確切的問題。 「我所從事的每一個機器學習項目」都非常廣泛。如果你從事三項工作,那麼這種索賠的數據非常少。我工作了20多年,但我根本不知道答案是什麼,因爲它對我來說總是不同的。是的,我可能會做錯什麼,這是更好的理由來指定你做了什麼,以便答案變得有用。 – sashkello

7

有兩個研究領域值得思考。第一個是Reinforcement Learning。這是一個在線學習範例,允許您在觀察結果時獲得反饋並更新您的策略(在本例中爲分類器)。

第二個是active learning,其中分類器可以從未分類示例池中選擇示例進行標記。關鍵是要讓分類器通過在當前分類假設下選擇難題來選擇最能提高其準確性的標籤示例。