2017-02-09 39 views
3

到目前爲止,我已經找到一種方法只記錄本地或遠程使用MediaRecorder API,但它可以混合和同時記錄蒸,並得到一個blob?的WebRTC混合本地和遠程音頻蒸和記錄

請注意其音頻蒸汽只,我不想在服務器端混合/記錄。

我的RTCPeerConnectionpc

var local_stream = pc.getLocalStreams()[0]; 
var remote_stream = pc.getRemoteStreams()[0]; 
var audioChunks = []; 
var rec = new MediaRecorder(local_stream); 
rec.ondataavailable = e => { 
    audioChunks.push(e.data); 
    if (rec.state == "inactive") 
     // Play audio using new blob 
} 
rec.start(); 

即使我嘗試在MediaStream API中添加多個音軌,但它仍然只給出第一首音軌音頻。任何幫助或見解,我會感激!

+0

@AdrianBer,我的問題是不同的。混合兩個音頻流並將其記錄爲單個蒸汽對象。因此,您可以在單個音頻元素中聽到雙方的對話。實際上,您不能混合兩個視頻流並獲取一個流來查看它。 –

+0

我收回了我的投票。你實際上可以混合兩個視頻流,看看我的答案在這裏:http://stackoverflow.com/questions/40966322/is-it-possible-to-merge-2-webm-video-streams-into-one-stream-in -圖片 –

回答

4

WebAudio API可以爲你做混音。如果你想記錄下陣列audioTracks中的所有音軌考慮以下代碼:

const ac = new AudioContext(); 

// WebAudio MediaStream sources only use the first track. 
const sources = audioTracks.map(t => ac.createMediaStreamSource(new MediaStream([t]))); 

// The destination will output one track of mixed audio. 
const dest = ac.createMediaStreamDestination(); 

// Mixing 
sources.forEach(s => s.connect(dest)); 

// Record 10s of mixed audio as an example 
const recorder = new MediaRecorder(dest.stream); 
recorder.start(); 
recorder.ondataavailable = e => console.log("Got data", e.data); 
recorder.onstop =() => console.log("stopped"); 
setTimeout(() => recorder.stop(), 10000);