mediastream

    1熱度

    1回答

    我正在創建MediaStream對象,並使用captureStream()函數從畫布添加視頻軌道。這工作正常。 但是我試圖添加音頻作爲視頻元素的單獨軌道。我似乎無法找到從html視頻元素獲取AudioTrack對象的方法。 目前HTMLMediaElement.audioTracks在Chrome中不受支持。根據mozilla開發人員網站,我應該能夠使用HTMLMediaElement.captu

    0熱度

    1回答

    我正在製作一個記錄視頻的程序,並且每隔5秒將其blob發送到一個套接字。它似乎工作正常,但是當我查看由服務器接收的文件時,我看到由套接字客戶端寫入的所有程序都是空的= 0kb。你能幫我嗎?我的HTML/JS和PHP代碼如下。下面 <!DOCTYPE html> <html lang="en"> <head> <title>WebRTC Video Recording using M

    0熱度

    1回答

    我有一個Ubuntu的服務器16.04,正確更新到目前爲止。 我試圖通過使用clipbucket主平臺託管開源媒體流媒體網站。但是在安裝其中一些軟件之後,它們在預先需要的軟件&上漏掉了插件。其他像php-imagemagick這樣的軟件無法通過「sudo apt-get install php-imagick」找到 有沒有什麼方法可以一次設置所有必需的軟件和插件?

    5熱度

    1回答

    我正嘗試使用ffmpeg.js將webM文件轉換爲mp4。 我正在從畫布上錄製視頻(疊加了一些信息)並錄製了視頻中的音頻數據。 stream = new MediaStream(); var videoElem = document.getElementById('video'); var videoStream = videoElem.captureStream(); stream.add

    2熱度

    1回答

    我正在使用twilio API在emberjs應用程序中實現屏幕共享,我成功地能夠共享屏幕並切換停止它。這裏是我的代碼 - > this.get('detectRtc').isChromeExtensionAvailable(available => { if (available) { const { twilioParticipant } = this.get('part

    0熱度

    1回答

    我想在離子應用程序中獲得我的後置攝像頭的視頻流。 爲此,我使用getUserMedia,可以正確使用前置攝像頭。 當我改變面向模式爲「環境」,我得到這個錯誤: Unknown constraint named facingMode rejected ConstraintNotSatisfiedError 在我的應用離子我已經安裝了故宮包「的WebRTC適配器」。 這裏是我的代碼從後置攝像頭獲取流:

    0熱度

    2回答

    我能夠使用socket.io發送流blob到節點js服務器。但是,它在更新視頻播放器中的blob數據時閃爍。我希望它運行平穩。如何在不眨眼視頻播放器的情況下發送數據。這裏是我的服務器代碼 var express = require("express"); var app = express(); var http = require("http").Server(app); var io =

    0熱度

    2回答

    是否有一種已知的方式將瀏覽器中的視頻流重新導入到WebAssembly中?我知道你可以使用HTML畫布進行幀捕獲,但我不知道如何獲得整個流(音頻/視頻)並將其發送到我的WebAssembly應用程序。

    0熱度

    1回答

    我目前正在構建WebRTC應用程序,並希望收集一些統計信息以評估我的解決方案。我感興趣的一個指標是接收到的音頻(和視頻)流的當前帶寬。我能夠在chrome://webrtc-internals/(OPUS)找到當前使用的編解碼器,但我無法找到有關當前流的質量/帶寬(例如128kbit/s)的數字。 我已經搜索了這些數字的RTCPeerConnection對象,但沒有找到一些。 XXX.RTCcon

    1熱度

    1回答

    我使用getAudioTracks()從視頻元素獲取音頻。然後,我需要放大(增加音量)這個audioTrack,然後我將它添加到畫布上,使用0123rt,並使用webrtc將其同時流出。 有沒有一種方法可以在客戶端使用javascript做到這一點?