我一直在玩GPUImage庫,它實現了幾個特徵探測器:Harris,FAST,ShiTomas,Noble。然而,這些實現中沒有一個有助於特徵提取和匹配部分。他們只是輸出一組檢測到的角點。基於GPU的SIFT特徵提取器適用於iOS?
我的理解(這是shakey)是,下一步是檢查每個檢測到的角點並從中提取特徵,這將導致描述符 - 即32位或64位數字,可能是用於索引其他類似點附近的點。
從閱讀[計算機視覺算法和應用,Szeliski]的4.1章節,我明白使用BestBin方法將有助於高效地找到相鄰的特徵來匹配,等等。但是,我實際上並不知道如何做到這一點我正在尋找一些這樣做的示例代碼。
我發現這個項目[https://github.com/Moodstocks/sift-gpu-iphone],聲稱儘可能多地實現GPU中的特徵提取。我也看到一些討論表明它可能會產生錯誤的描述符。
在任何情況下,該代碼都不會顯示如何將提取的特徵與其他圖像進行最佳匹配。
我的用例,如果試圖找到圖像中的對象。
有沒有人有這樣做的代碼,或至少一個很好的實現,顯示如何提取的功能匹配?我希望不必重寫整套算法。
謝謝, Rob。
是的,我已經等了以下工作在GPUImage項目爲好,曳那些票一樣,所以我找到了有關實現快速檢票。 作爲下一步(嬰兒)步驟,我注意到當前的檢測器不提取特徵。它看起來像他們需要將他們的輸出饋送到另一個創建描述符併爲其編制索引的過濾器。 在這一點上,我認爲我可以在CPU中執行算法,因爲我只處理數百個特徵,而不是數千個特徵。你認爲這是明智的嗎? – Rob
你見過這個圖書館嗎? https://www.vuforia.com/platform。似乎也使用OpenGL檢測圖像中的對象。顯然免費,不收費。 – Rob