2015-01-07 88 views
2

我正在尋找一種方法將攝像頭數據從瀏覽器傳輸到網絡服務器。攝像頭數據通過使用getUserMedia獲取。一個常見的選擇似乎是使用畫布和計時器將屏幕截圖發送到服務器,但我想要一個合適的視頻流。 WEBRTC似乎是另一種選擇,但這可能有點過頭了,再加上沒有太多運行在服務器上的軟件(即非瀏覽器),說WEBRTC,並且綁定了Python。如何將攝像頭數據流式傳輸到服務器?

也許我缺少簡單的sompling。例如,視頻流可以使用Websockets進行流式傳輸嗎?

'use strict'; 


var errorCallback = function(e) { 
    console.log('Rejected!', e); 
}; 

var successCallback = function(stream) { 
    console.log('Got Video.'); 
    var video = document.querySelector('video'); 
    video.src = window.URL.createObjectURL(stream); 
    // ??? 
    // Stream data to server 
    video.play(); 

}; 

navigator.getUserMedia = navigator.getUserMedia || 
         navigator.webkitGetUserMedia || 
         navigator.mozGetUserMedia || 
         navigator.msGetUserMedia; 


var hdConstraints = { 
    video: { 
     mandatory: { 
      minWidth: 1280, 
      minHeight: 720, 
     } 
    }, 
    audio: false, 
}; 

if (navigator.getUserMedia) { 
    navigator.getUserMedia(hdConstraints, successCallback, errorCallback); 
} 
else { 
    console.log('No getUserMedia available.'); 
} 

回答

0

貌似目前最好的解決方案確實使用的畫布,在定期的網絡攝像頭創建的圖像,並通過WebSockets將其發送。

相關問題