我相信GPUImage布拉德·拉爾森,以達到最佳的方式。
以下是GPUImage
GitHub的頁面
//Filtering live video
//To filter live video from an iOS device's camera, you can use code like the following:
GPUImageVideoCamera *videoCamera = [[GPUImageVideoCamera alloc] initWithSessionPreset:AVCaptureSessionPreset640x480 cameraPosition:AVCaptureDevicePositionBack];
videoCamera.outputImageOrientation = UIInterfaceOrientationPortrait;
GPUImageFilter *customFilter = [[GPUImageFilter alloc] initWithFragmentShaderFromFile:@"CustomShader"];
GPUImageView *filteredVideoView = [[GPUImageView alloc] initWithFrame:CGRectMake(0.0, 0.0, viewWidth, viewHeight)];
// Add the view somewhere so it's visible
[videoCamera addTarget:customFilter];
[customFilter addTarget:filteredVideoView];
[videoCamera startCameraCapture];
由於GPUImage具有開放的源代碼,你可以打開GPUImageVideoCamera
類和學習的地方進行視頻數據的實時濾波部分摘錄。然後使用Apple的CoreVideo
框架來抓取正在播放的電影視頻的視頻數據,並使該GPUImage部分適用於此視頻。
有時,鍋爐板代碼不可用,但總是有出路..祝你好運。 :)
但是,該框架無法運行。它崩潰。所以我不能使用這個框架。 –
只需再次瀏覽您的GPUImage框架導入過程。它工作得很好。我用過它。 :) – CodenameLambda1