cmsamplebufferref

    0熱度

    1回答

    我正在創建一個簡單的視頻通話應用程序,其中音頻/視頻將從一個設備流到另一個設備,但問題是我不知道視頻通話的工作方式,尤其是如何使用它iOS。 到現在爲止我已經使用AVCaptureSession拍攝的視頻,並從該委託的方法 - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleB

    3熱度

    2回答

    我想使用AVFoundation框架從AVCaptureStillImageOutput快速捕獲一系列靜止圖像,就像某些相機的突發模式。我想使用完成處理程序, [stillImageOutput captureStillImageAsynchronouslyFromConnection:videoConnection completionHandler: ^(CMS

    11熱度

    1回答

    如何將CMSampleBufferRef轉換爲NSData? 我已成功地通過關注this thread的Erik Aigner的回答得到了MPMediaItem的數據,但數據的類型爲CMSampleBufferRef。 我知道CMSampleBufferRef是一個結構體,在iOS Dev Library的CMSampleBuffer Reference中定義,但我不認爲我完全理解它是什麼。 CM

    4熱度

    1回答

    我試圖裁剪和縮放CMSampleBufferRef根據用戶的輸入,在ratio,下面的代碼需要CMSampleBufferRef,將其轉換成CVImageBufferRef和使用CVPixelBuffer裁剪基於其字節的內部圖像。這一過程的目標是有一個裁剪和縮放CVPixelBufferRef寫信給視頻 - (CVPixelBufferRef)modifyImage:(CMSampleBuffer

    1熱度

    1回答

    我無法使用iPhone上的avassetwriter將音頻錄製到視頻中。我可以在手機上錄製來自攝像頭的視頻沒有問題,但是當我嘗試添加音頻時,我什麼都沒有收到,而且相冊應用中的視頻顯示的內容也顯示出了一些真正的問題,4秒的視頻將會顯示15:54:01或類似的東西,即使視頻較短,編號後的每個視頻都會增加。我一直在試圖追尋其他問題,但沒有運氣。 繼承人設置了AVAssetWriter如何IM video

    3熱度

    2回答

    我需要從獲得UIImage未壓縮來自CMSampleBufferRef的圖像數據。我使用的代碼: captureStillImageOutput captureStillImageAsynchronouslyFromConnection:connection completionHandler:^(CMSampleBufferRef imageSampleBuffer, NSError *err

    7熱度

    1回答

    我在AVAssetWriterInput的iOS文檔中發現,您可以通過nil獲取outputSettings字典,以指定輸入數據不應重新編碼。 用於編碼附加到輸出的媒體的設置。通過零以指定附加採樣不應重新編碼。 我想利用這個功能的優勢,在原料H.264的NAL流通過,但我無法適應我的原始字節流成CMSampleBuffer我可以傳遞到AVAssetWriterInput的appendSampleB

    10熱度

    1回答

    我有一個程序實時查看相機輸入並獲取中間像素的顏色值。我用captureOutput:方法來從一個AVCaptureSession輸出(恰好被讀作CVPixelBuffer),然後我搶用下面的代碼的像素的RGB值搶CMSampleBuffer: // Get a CMSampleBuffer's Core Video image buffer for the media data CVImageB

    4熱度

    2回答

    我正在使用AVFoundation來捕獲和錄製音頻。有一些問題我不太明白。 基本上我想從AVCaptureSession捕獲音頻並使用AVWriter編寫,但是我需要在從AVCaptureSession獲取的CMSampleBuffer的時間戳中進行一些轉換。我閱讀了CMSampleBuffer的文檔,我看到兩個不同的時間戳:'演示時間戳'和'輸出演示時間戳'。兩者有什麼不同? 假設我從AVCap

    0熱度

    1回答

    我正在處理圖像(在iOS上使用AVFoundation和OpenCV),我想只需顯示CMSampleBufferRef(或IplImage)的內容到屏幕。 簡單:我只是想顯示(像OpenCV中的cvShowImage())未轉換的圖像,看我不處理損壞或以某種方式變形圖像。