2012-06-14 27 views
2

我有一個跟蹤機器人,用於大腦的iPhone。它有兩個攝像頭 - 一個來自iPhone,另一個來自獨立攝像頭。該手機具有GPS,陀螺儀,加速計和磁力計,傳感器融合將用戶引發的加速度與重力分開。手機一起可以檢測到自己在太空中的態度。如果機器人碰到他們,我想教機器人至少避開牆壁。iPhone機器人學Visual-SLAM算法實現

任何人都可以提出一個啓動項目的視覺同時定位和由這樣的機器人完成映射嗎?我會非常感謝Objective-C的實現,因爲我看到一些使用C/C++編寫的OpenSlam.org項目,但這些並不是我最強大的編程語言。

我無法使用激光測距儀,因此任何關於Visual SLAM的文章,關鍵詞或學術論文也都有幫助。

謝謝您的輸入!

回答

1

我可以建議你看一看到FAB-MAP,它在OpenCV

我做我的碩士論文的視覺SLAM,特別是在環閉合問題的實現。

它在C++中,但如果你遵循這些例子,你會發現它很容易使用。