2011-06-22 22 views
13

我想開始使用Kinect的,它有一個深度感應攝像頭,但我已經看到了測量寬/高/長任何指導。測量的Kinect

是否需要計算一個物體遠離相機(深度傳感器)的距離,並在該範圍內計算Kinect的視場,然後計算出物體佔據了多少像素?

我希望能夠從一個點雲做一個網狀或東西,我有麻煩搞清楚哪裏開始以及如何獲得適當的寬度/高度測量的對象。

+0

與您有同樣的問題...您是否找到了解決方案?是否有一個公式或測量... – Killercode

+0

不知道爲什麼沒有人提到過這一點,但Kinect深度幀數據可以被處理成一組SkeletonPoints。這些點位於真實世界的空間中,也就是說,0.5的z值對應於離傳感器半米遠的點。既然你可以很容易地得到SkeletonPoints,那麼就可以確定哪些點屬於你想要的對象,並用它來衡量它。 –

回答

7

這是一個相當複雜的任務,不能在這裏#2幾段來回答。原因是它有許多基於其他知識的知識。我會首先閱讀Linear Algebra,例如使用優秀的Rorres, et al

創建從點雲的網格是一個複雜的任務,今天還有沒有使用事實上的算法。最流行的方法似乎是首先創建一個離散的Truncated Signed Distance Function (TSDF)然後使用例如Marching Cubes得到一個網格。另一種算法是Delaunay triangulation

還有由s-hull項目提供了一個C#實現。

0

我知道這是前一段時間問的,但是值得一提的是有關channel9.msdn的文章,它顯示了一種更簡單的方法來計算用戶的身高。我可以想象,你可以使用類似的技術與HipLeftHipCenterHipRight估計寬度。

如果你按照鏈接project information URL它有更詳細的信息。