videocore

    1熱度

    1回答

    我使用VideoCore庫來捕獲視頻並將視頻直播到服務器。我正在使用一個方形uiview來監視我應用程序上的實時流。但我無法用我的直播視頻輸出完全填充視圖。很感謝任何形式的幫助。謝謝。我是iOS開發新手。 這裏是我的代碼: ViewController.h #import <UIKit/UIKit.h> #import <MediaPlayer/MediaPlayer.h> #import <

    1熱度

    1回答

    我想從iOS設備發送外部視頻。 這個視頻正在從直播接收:RTSP服務器或hls url(不是從iPhone攝像頭)。 目前,我可以(內部使用CameraSource和MicSource)使用VideoCoreiPhone流我的相機,視頻,但現在,視頻我要流來自一個URL。類似於Periscope streaming video from GoPro Cam。 問題1:我不知道如何從一個RTSP U

    0熱度

    1回答

    我想在類文件的頂部設置一個變量,所以我可以使用它幾行。我遇到的問題是Instance member 'streamWidth' cannot be used on type 'BroadcastViewController'。所以我認爲這是因爲我不能在主類中引用這個變量,所以我必須在函數中使用它。現在如果是這樣的話,我有辦法解決這個問題嗎? class BroadcastViewControlle

    0熱度

    1回答

    上有VCFilter類型的VCSimpleSession的濾鏡屬性: typedef NS_ENUM(NSInteger, VCFilter) { VCFilterNormal, VCFilterGray, VCFilterInvertColors, VCFilterSepia, VCFilterFisheye, VCFilterGlow

    0熱度

    1回答

    我試圖做一個潛望鏡般的應用程序(不實際,但技術要求都是一樣的),用戶可以從開始他們的iPhone迅速分流到用戶的未知量,無論是移動。我正在嘗試使用Azure媒體服務進行實時視頻流式傳輸,但即使在閱讀了我卡住的文檔頁面之後。 我使用的VideoCore(https://github.com/jgh-/VideoCore)從iOS設備發佈到服務器RTMP。在本地(使用Wowza)我可以連接到我的一套用

    1熱度

    1回答

    我基於廣播我使用的VideoCore庫報道用的,我使用下面的代碼來啓動RTMP會話 [_session startRtmpSessionWithURL:urlForStream andStreamKey:streamID]; urlForStream將某個應用就像RTMP wowza服務器的URL://some.tv/一些/用戶名/用戶名/ randamvalue 即

    0熱度

    1回答

    您好我正在開發一個基於廣播的,我現在用視頻核心庫中的應用現場H264/AAC iOS的相機流發送到Wowza我需要對視頻進行編碼H.264和AAC音頻然後只有Wowza服務器流我的視頻,但我不知道如何實現一個任何機構可以幫我請

    0熱度

    1回答

    我的應用程序使用VideoCore項目直播到Wowza服務器並存儲視頻。它還使用AVCaptureMovieFileDataOutput來記錄離線視頻。 我想在視頻的左上角嵌入視頻捕獲時間戳,而不是靜態時間。這意味着它不僅是一個靜態水印,而且還是一個真正的視頻拍攝時間顯示。 對於流式的情況,我現在不知道。對於離線情況,我嘗試使用AVCaptureAudioDataOutput來獲取每個幀以添加時間