我正在準備一個需要檢測眼睛運動的android應用程序。不知何故,我能夠在圖像上實現上述目標,但我希望通過現場觀看。Android:實時使用傳感器檢測眼睛的運動
我不能理解,如果我們可以使用接近傳感器來檢測眼睛。就像smartStay功能一樣。
請建議實施相同的想法。
我正在準備一個需要檢測眼睛運動的android應用程序。不知何故,我能夠在圖像上實現上述目標,但我希望通過現場觀看。Android:實時使用傳感器檢測眼睛的運動
我不能理解,如果我們可以使用接近傳感器來檢測眼睛。就像smartStay功能一樣。
請建議實施相同的想法。
我們可以使用前置攝像頭檢測到的眼睛和眼睛眨。使用Vision api檢測眼睛。眼跟蹤
代碼:
public class FaceTracker extends Tracker<Face> {
private static final float PROB_THRESHOLD = 0.7f;
private static final String TAG = FaceTracker.class.getSimpleName();
private boolean leftClosed;
private boolean rightClosed;
@Override
public void onUpdate(Detector.Detections<Face> detections, Face face) {
if (leftClosed && face.getIsLeftEyeOpenProbability() > PROB_THRESHOLD) {
leftClosed = false;
} else if (!leftClosed && face.getIsLeftEyeOpenProbability() < PROB_THRESHOLD){
leftClosed = true;
}
if (rightClosed && face.getIsRightEyeOpenProbability() > PROB_THRESHOLD) {
rightClosed = false;
} else if (!rightClosed && face.getIsRightEyeOpenProbability() < PROB_THRESHOLD) {
rightClosed = true;
}
if (leftClosed && !rightClosed) {
EventBus.getDefault().post(new LeftEyeClosedEvent());
} else if (rightClosed && !leftClosed) {
EventBus.getDefault().post(new RightEyeClosedEvent());
} else if (!leftClosed && !rightClosed) {
EventBus.getDefault().post(new NeutralFaceEvent());
}
}
}
//method to call the FaceTracker
private void createCameraResources() {
Context context = getApplicationContext();
// create and setup the face detector
mFaceDetector = new FaceDetector.Builder(context)
.setProminentFaceOnly(true) // optimize for single, relatively large face
.setTrackingEnabled(true) // enable face tracking
.setClassificationType(/* eyes open and smile */ FaceDetector.ALL_CLASSIFICATIONS)
.setMode(FaceDetector.FAST_MODE) // for one face this is OK
.build();
// now that we've got a detector, create a processor pipeline to receive the detection
// results
mFaceDetector.setProcessor(new LargestFaceFocusingProcessor(mFaceDetector, new FaceTracker()));
// operational...?
if (!mFaceDetector.isOperational()) {
Log.w(TAG, "createCameraResources: detector NOT operational");
} else {
Log.d(TAG, "createCameraResources: detector operational");
}
// Create camera source that will capture video frames
// Use the front camera
mCameraSource = new CameraSource.Builder(this, mFaceDetector)
.setRequestedPreviewSize(640, 480)
.setFacing(CameraSource.CAMERA_FACING_FRONT)
.setRequestedFps(30f)
.build();
}
不,您不能使用接近傳感器進行眼睛檢測或跟蹤。給OpenCV一個鏡頭。
鏈接:OpenCv github上:OpenCv github
我們可以使用前置攝像頭進行眼睛探測嗎?意味着前面的凸輪可以在背景中運行,並能夠感知眼睛。 – PuneetGupta
是的,這是可能的。 –
你有沒有任何運行的例子在android上沒有openCv(不知道任何關於openCv)。 – PuneetGupta
你不會使用接近了,你會用你的凸輪...我希望這有助於 –
感謝@OmarElDon的建議。所以前臺攝像頭不會出現在屏幕上,它會檢測到眼睛。請確認我的理解是否正確。 – PuneetGupta
不完全是這樣,它只是作爲一個移動探測器,至少對於遠處物體來說不起作用 –