http-live-streaming

    1熱度

    1回答

    我試圖在頁面中嵌入html5音頻標籤,以允許播放來自Icecast服務器的實時AAC +流。 根據media formats developer's guide,Android支持在MPEG-4容器內或ADTS內的多種AAC風格的播放。 我已經成功地扮演了AAC編碼的音頻文件中的MPEG-4容器,從而: <audio controls="controls"> <source src="h

    4熱度

    3回答

    我正在尋找任何現代資源來建立視頻流媒體服務器。優選開源解決方案。 我在這方面的搜索導致了很多死路一條。我也需要建立我自己的而不是付費的服務。

    1熱度

    2回答

    我使用Andorid ExoPlayer通過http(HLS)從互聯網傳輸內容。當我開始播放它工作正常,但是當我嘗試改變播放內容的質量 - player.setSelectedTrack(TYPE_VIDEO, 1) 例如,我GET和HTTP 403禁止錯誤。如果我初始化播放器並再次運行內容,那很好。我正在使用Demo項目作爲源。 你知道什麼可能導致這種行爲,以及播放初始流和改變曲目有什麼不同?

    1熱度

    1回答

    在通過HTTP Live Streaming從服務器播放實況視頻的iPhone應用程序中,是否可以在解碼後訪問解碼的視頻幀? 據我所見,AVPlayer,MPMoviePlayer和CoreVideo似乎沒有提供回調來通知應用程序單個幀已被解碼。 我的問題類似於「Record HTTP Live Streaming Video To File While Watching?」,但我不一定對完整的D

    0熱度

    1回答

    我需要將音頻塊像流一樣發送到服務器,同時在iPhone中錄製音頻。什麼是實施這個最好的方法?我看着HLS。但它支持服務器到客戶端的流媒體。我需要客戶端到服務器流媒體。請建議一種實現從客戶端(iOS設備)到服務器的音頻流的最佳方法。

    0熱度

    2回答

    我有一個iOS流應用程序。它適用於我的流式網址。我如何使用AudioStreamer .m3u8文件的URL? 預先感謝您

    2熱度

    2回答

    我正在研究iOS應用程序的直播功能。我使用了ContainerView中包含的AVPlayerViewController來顯示視頻。 這裏是對的ViewController @interface ViewController() @property MPMoviePlayerController* streamPlayer; @property BOOL isPlaying; @end

    0熱度

    1回答

    我需要實時從Mac發送屏幕視頻到組播組,如「239.1.1.110:46110」。 我知道AVCaptureMovieFileOutput有一個方法「startRecordingToOutputFileURL:recordingDelegate:」。 我只想知道URL的參數可以是多播組地址嗎?或者如果不是,我能做些什麼來將流視頻發送到多播組? 有人說使用ffmpeg,但我什麼都沒有。可以有人給一些

    4熱度

    1回答

    我試圖在網頁上顯示實況網絡攝像頭視頻流,並且我有一份工作草案。但是,我對錶現不滿意,並尋找更好的方式來完成這項工作。 我有一個攝像頭連接到Raspberry PI和一個簡單的python-Flask服務器的Web服務器。通過使用OpenCV捕獲網絡攝像頭圖像並將其格式化爲JPEG。之後,這些JPEG將被髮送到服務器的一個UDP端口。我到目前爲止所做的就像是一個自制的MJPEG(motion-jpe

    1熱度

    1回答

    我使用遠程src中的ffmpeg生成hls內容,並且經驗滯後,我在瀏覽器中不理解。 舉例來說,即使有說out8.ts,out9.ts ... hls.js玩家將在發言權out7.ts並不會加載out8.ts或out9.ts. 它會等到out7.ts 已基本完成播放,然後嘗試加載out.m3u8其中將包含out8.ts並可能out9.ts.但是這樣做太晚了,最終導致滯後。我在本地主機上以高效的方式執