我正在處理一個問題(在C++/opencv中),其中4個用戶需要使用從膚色和上手的特徵中提取的身份信息來相互區分。但是,膚色方法(在YCrCb中)的可靠性非常低,因爲膚色之間沒有太大差異。因此,我試圖從手中提取更多的功能,比如較暗的點等。爲此,我計算了圖像的拉普拉斯算子。結果:圖像處理手特徵識別
http://imageshack.us/photo/my-images/818/afb1.jpg/
http://imageshack.us/photo/my-images/31/afb2i.jpg/
http://imageshack.us/photo/my-images/638/afb3.jpg/
前兩張圖片來自同一手/人。第二張圖像是另一個人的手。正如你所看到的,在第一幅圖像中可以看到一個清晰的亮點,它們代表了手部較暗的部位。我的想法是在小方塊上採樣handcontour,並在其他圖像中找到這些方塊。之後,我們可以評估哪個圖像對於給定圖像具有最高和最高的匹配。
但是,我找不到一個算法來查找示例圖像和其他圖像之間的匹配。我嘗試了cvMatchTemplate()操作(http://dasl.mem.drexel.edu/~noahKuntz/openCVTut6.html#Step%202)和meanShift算法,但這兩種技術的結果都非常糟糕。
有人可以給我一些提示嗎?
您已經在另一個用戶名下發布了一個非常類似的問題。請使用您的新見解編輯該問題,並刪除此問題。 –
[圖像處理皮膚顏色識別]可能的重複(http://stackoverflow.com/questions/7589394/image-processing-skin-color-identification) –