我目前正在從ios設備上的相機中拉出幀。從這些框架中,我使用ORB來查找關鍵點及其描述符。然後我使用BFMatcher來查找圖像上關鍵點之間的匹配。查找立體圖像中匹配關鍵點的距離
從這裏我希望計算從相機到這些點的距離。我使用的所有點都是平面的(現在我使用牆上的引腳進行測試)。在這個階段沒有必要考慮非平面表面,所以這應該很容易。
我目前有:
- 關鍵點
- 關鍵點描述符
- 關鍵點之間的較量
- 基本矩陣
- 本質矩陣
- 投影矩陣,兩個攝像頭(雖然我不確定如何測試第二臺相機是否正確)
我認爲我必須以某種形式使用三角測量,但我不確定它是如何工作的。我知道我必須通過每個關鍵點從每個相機傳遞一個光線(如相機投影矩陣定義的?),並找到它們相交(或最接近相交)的點。正如我在3D空間中假設的那樣,每條光線相交的機率不太可能。另外,我的關鍵點匹配通常很好,因爲我做了一些基本的過濾,但有時候關鍵點是錯誤的,所以我需要對此進行說明。
我之前使用Matlab校準過相機,所以我有焦距,主點和失真。但是,我從圖像中提取的所有點都是2D。據推測,這是必要的3D代表這些點,但我不知道如何。
或者我完全錯誤的做法?
http://i47.tinypic.com/mt88p1.png
顯然,這將場景中的每個點進行,但我只是畫了一個點。這些飛機(正方形)總是在相同的位置,但相機的位置也會從幀改變幀。關鍵點將處於相同的位置,但不是每個點都會被拾起。
你能發佈展示您的相機和你的點位繪圖?這將使這**更容易理解.... – lnafziger