我的主要動機是從簡單的RGB圖像(來自我的網絡攝像頭的圖像)中檢測手。 我發現了一個示例代碼find_hand_point如何創建Kinect深度圖像?可以將簡單的RGB圖像轉換爲像這些深度圖像的圖像嗎?
function [result, depth] = find_hand_point(depth_frame)
% function result = find_hand_point(depth_frame)
%
% returns the coordinate of a pixel that we expect to belong to the hand.
% very simple implementation, we assume that the hand is the closest object
% to the sensor.
max_value = max(depth_frame(:));
current2 = depth_frame;
current2(depth_frame == 0) = max_value;
blurred = imfilter(current2, ones(5, 5)/25, 'symmetric', 'same');
minimum = min(blurred(:));
[is, js] = find(blurred == minimum);
result = [is(1), js(1)];
depth = minimum;
結果變量是最近的東西到相機(手)的座標。
從超高動力學裝置的深度圖像被傳遞給該函數,其結果是爲:
http://img839.imageshack.us/img839/5562/testcs.jpg
綠色矩形示出最接近於相機(手)。
問題:
- ,我的筆記本電腦的攝像頭能捕捉不是深度圖像,但都是簡單的RGB圖像的圖像。
- 有沒有辦法將我的RGB圖像轉換爲這些深度圖像?
- 有沒有一種簡單的替代技術來檢測手?
此[鏈接]以檢測手(http://www.cs.washington.edu/rgbd-dataset/software.html)有太多的消息,但希望你找到一些方向。但我確實記得我們使用了一個內部庫來將大多數凸輪圖片轉換爲圖像處理的深度。我會發布 – bonCodigo
謝謝朋友:)如果我真的可以從我的24位RGB圖像中創建這些24位深度圖像,那將非常有幫助。請向我介紹該庫及其可以幫助的功能! – khurram
您給出的鏈接主要關注的是從深度圖像轉換爲不到深度圖像 – khurram