我想建立一個服務,允許用戶從他們的瀏覽器聽現場呼叫。Asterisk + Node.js +瀏覽器流
我有一些Asterisk的經驗,這似乎足夠靈活來做我所描述的。
Node.js聽起來不錯,因爲它聲稱很好地處理了併發性,而且我喜歡JavaScript。
在瀏覽器中,我認爲HTML5音頻標籤,因爲它處理來自流媒體播放源的播放,所以播放聲音會很好。
我的一位同事一起使用Icecast對這個概念進行了演示,但無法完成它。還有顯着的延遲問題。
我的問題是這樣的:
我應該如何去對這個入門?
任何幫助表示讚賞!
更新:
我發現了一個演講討論通過在後端SIP代理實現上的WebSockets的頂部SIP:
http://sip-on-the-web.aliax.net/
一旦我有這個啓動和運行,下一步就是實施流媒體。看起來我應該能夠通過輔助服務器代理通常會發送到sip客戶端的音頻輸出,然後將其傳輸到瀏覽器。我想知道爲什麼這不能在記憶中完成?隨着通話的進行,不需要寫入和讀取文件。
感謝發佈,但我已經看到了,它沒有進入瀏覽器的流媒體端,它只是使用基於閃存的Phono。 – Jonathan 2012-02-08 18:23:41