2017-09-14 180 views
1

我正在創建僅語音(無視頻)聊天應用程序。我已經創建了我自己的基於node.js/socket.io的信號服務器。WebRTC iOS音頻聊天

實現WebRTC,我使用下面的吊艙:https://cocoapods.org/pods/WebRTC

我已經成功地建立對等連接,增加本地流,設置本地/遠程SDP和發送/接收冰候選人。 「didAddStream」委託方法也被稱爲成功的音軌,但我在這裏卡住了。我不知道我應該如何處理音軌。下一步應該是什麼?我將如何發送/接收雙方的音頻?

另外,如果我整合了CallKit,我需要做些什麼改變。

回答

1

我也被卡住了。您必須保留RTCMediaStream對象才能播放音頻。你不需要對RTCAudioTrack做任何事情,它會自動播放。我只是將它分配給屬性,以便它可以保留。看我的例子:https://github.com/redfearnk/WebRTCVideoChat/blob/master/WebRTCVideoChat/WebRTCClient.swift#L143

+0

是的,這就是我最終發現的。你不必做任何事情,音頻將自動開始播放。 我打算在iOS本地應用程序(使用swift)中編寫一個關於WebRTC的博客,其中包含與CallKit集成的獨立Node.JS套接字服務器。 儘管非常感謝您的回答。 –

+0

好主意!我很想看到它 –