與其他許多開發者一樣,我也沉浸在蘋果新的ARKit技術中。這很棒。 然而,對於一個特定的項目,我希望能夠識別場景中的(真實)圖像,或者對其進行投影(就像Vuforia對其目標圖像所做的那樣),或者用它來觸發事件在我的應用程序。蘋果視覺圖像識別
在我的研究中,我偶然發現了Apple的Vision和CoreML框架。這看起來很有希望,儘管我還沒有能夠圍住它。
據我所知,我應該可以通過使用Vision框架找到矩形並將它們提供給CoreML模型,將其與模型中預定義的目標圖像進行簡單比較。它應該能夠吐出它找到的目標圖像。
雖然這聽起來不錯,但我還沒有找到辦法做到這一點。我將如何去創建這樣的模型,甚至可能呢?
有趣的是,我想知道昨天剛剛發生了什麼。感謝問! – LinusGeffarth