live-streaming

    1熱度

    1回答

    我已經設法使用YouTubePlayer播放YouTube視頻。但是,當我嘗試使用YouTubePlayer播放實況流時,沒有任何反應。正在播放API支持的直播流嗎?如果是這樣,我該怎麼做?

    0熱度

    2回答

    我們正在制定一些視頻直播,我們希望切換兩個不同的視頻源。 因此,將有兩個直播流傳送給編輯人員,該編輯人員應該能夠選擇應該在那一刻顯示哪些直播視頻,並且應該能夠在不中斷流播的情況下切換播放源。編輯人員將視頻流傳輸到YouTube或其他直播服務。 是否有任何免費軟件可以做到這一點?它不應該是一個控制檯工具。我知道一些流媒體服務器提供了一個即時切換源的功能,但最好還是帶着編輯器的GUI。

    0熱度

    1回答

    我正在開發一個項目,在該項目中,訪客/註冊用戶將被允許查看安裝在工作場所的網絡攝像機的實況錄像。我怎樣才能做到這一點?我搜索了一切,但尚未得到解決方案。 我已經安裝了red5媒體服務器,我該如何推送實時視頻(未錄製)服務器並使其對觀衆可見。還是有其他更容易/更好的替代方案? 謝謝...

    0熱度

    1回答

    我們使用的ffmpeg試圖編碼的資產,無論是活的還是靜態的,在現場的流媒體IIS服務。任何人都可以爲我們應該使用和設置的參數提供指針嗎? 由於我們的測試,只是爲了看看,如果我們能得到的東西的工作的一部分,我們有我們試圖流服務器標準的普通老式MP4視頻的靜態資產。它似乎在客戶端工作,但是當我們嘗試在接收端觀看視頻時,我們什麼也得不到。 下面是我們使用的命令,其中gg.mp4是靜態的MP4視頻的例子(

    5熱度

    1回答

    正如在previous question中所討論的,我已經建立了一個原型(使用MVC Web API,NAudio和NAudio.Lame),將其轉換爲mp3之後流式傳輸低質量音頻。源流是PCM:8K,16位,單聲道,我正在使用html5的音頻標籤。 在都 Chrome和IE11存在15-34第二延遲(高延遲)音頻從中,我告訴瀏覽器聽說過,是我們的最終用戶無法接受的。理想情況下,延遲時間不會超過5

    1熱度

    1回答

    據我瞭解,該的WebRTC是瀏覽器客戶端支持的WebRTC之間的視頻聊天接收流。 我不知道是否有可能流從一個普通媒體服務器(現場攝像機捕捉)數據給WebRTC客戶端瀏覽器?我應該配什麼協議或編碼? 我真的很新的這領域,太多的知識回暖。請指點我正確的方向。

    2熱度

    1回答

    我已在我的系統&上安裝了red5,同時還安裝了slalademo。能夠在我的本地使用adobe media live編碼器進行直播。使用jw播放器播放視頻。播放器能夠從127.0.0.1中讀取rtmp url,但是當我從LAN.getting中的其他系統中打開播放器url時「Server找不到rtmpt:// ipaddress:80/oflademo「。我在apache tomcat上安裝了播放

    0熱度

    1回答

    我需要在Youtube上創建一個包含特定日期和預定時間的直播活動。內容本身是預先錄製的視頻,但我希望以「實時」方式展示,以便用戶不會跳過。在每個現場直播活動結束後,我會將視頻存檔,以便用戶可以在我們的YouTube頻道上自由觀看。 任何幫助或信息將不勝感激!

    1熱度

    1回答

    我正在做一些視頻報道,並在YouTube網站上直播,很少有其他人將我的YouTube嵌入代碼並在自己的網站中實施。所以我計劃限制嵌入並禁用選項。 現在的問題是它不在我自己的網站上運行,如果有任何選項只在自己的網站上運行視頻並限制在其他網站上的流媒體。 感謝

    0熱度

    1回答

    我正在嘗試編寫一個程序,該程序使用OPENCV和CPP將視頻文件的每個幀存儲爲圖像。我用ffmpeg和mplayer實現了這個目標。我想用OPENCV來得到它。誰能幫忙?是否有任何其他功能將圖像存儲到IMWRITE()以外的文件? OPENCV是否有任何功能可以實時獲取在設備的特定端口可用的視頻的實況流?即將每個流的幀存儲爲圖像? 任何人都可以幫我嗎? 在此先感謝.. :)