audio-streaming

    2熱度

    2回答

    我想通過幾個使用Nearby Connections API的設備流式傳輸音頻,但我不太確定這是否真的可行/值得推薦。 我想要做的是將音頻文件(存儲在手機中的音樂以及來自諸如Google Music,Spotify等應用程序的音樂)廣播到其他連接的設備,以便他們可以在接收時播放歌曲歌曲的所有數據塊。 我認爲通過Nearby Connections API,當我們調用Nearby.Connectio

    4熱度

    2回答

    我正在製作一個項目,在該項目中,我必須爲無線電流製作Api,以便用戶可以從他的移動應用程序而不是web收聽廣播流。請讓我知道,如果有任何框架Node.js可以實時將我的音頻文件流式傳輸到移動客戶端。 我看看Binary.js,但我不確定它可以處理我的移動客戶端。任何人都請在此引導我。

    2熱度

    1回答

    我正在嘗試創建一個應用程序,以將音頻從一個設備中的本地文件流式傳輸到使用Nearby通信API的其他設備。 問題是我設法傳輸音頻,但我在遠程設備上聽到的唯一東西是某種無意義的開裂噪聲。 到目前爲止,我所讀到的是我需要調整minBufferSize中使用的值和sampleRate中的值,但我一直在嘗試這一點,而且我沒有取得多大成就。 這是我的代碼發送字節塊: AudioTrack speaker;

    1熱度

    1回答

    正如很長的標題所暗示的,我無法播放通過PubNunb通過網絡發送的音頻中的音頻。我做的是我送的音頻使用此代碼AudioRecord錄製時: AudioConfig audioConfig = getValidSampleRates(AudioFormat.CHANNEL_IN_MONO, AudioFormat.ENCODING_PCM_16BIT); buffer = new byte

    0熱度

    1回答

    我想從我的Windows Phone應用程序中的流服務器播放音頻流。我閱讀了微軟文檔,我必須參考一個音頻流代理。 我在我的解決方案,這些項目: 我試圖引用一個新的項目作爲音頻流傳輸代理在我的Windows Phone 8.1應用程序 ,但我不斷接收錯誤: 我閱讀,我不得不改變目標框架,但有AudioStreamAgent1屬性中的目標框架沒有選項。 另外,我可以使用不是Silverlight類型的

    2熱度

    2回答

    有人可以解釋I2S接口和PCM接口有什麼區別嗎? I2S接口是否僅支持i2s格式的音頻數據而不支持PCM格式的音頻數據?

    1熱度

    1回答

    我曾希望建立一個應用程序,將音頻(mp3,ogg等)從我的麥克風傳輸到網絡瀏覽器。 我想我可以使用html5音頻標籤從我的服務器讀取/播放流。 我真的堅持的地方是如何設置流HTTP端點。我需要哪些技術,以及我的服務器應該如何構造以從我的麥克風獲取實時音頻並從我的服務器訪問? 例如,對於流式傳輸mp3,我是否經常用錄製的MP3幀進行響應? 感謝您的幫助!

    0熱度

    1回答

    我想記錄來自Kinect的音頻流並將其保存在我的電腦中,所以我在這裏引用示例代碼。 http://channel9.msdn.com/Series/KinectQuickstart/Audio-Fundamentals 這是我的部分代碼。 public static void WriteWavHeader(Stream stream, int dataLength) {

    5熱度

    1回答

    我正在爲我的流式應用程序創建中繼服務器。基本上,它應該工作是這樣的:通過插座 客戶端A流麥克風音頻服務器 Server中獲取流,也許其存儲臨時的地方(不知道) 客戶端B會從流服務器並播放它。 基本上,我有第1部分完成(發送麥克風音頻服務器): while(isStreaming) { minBufSize = recorder.read(buffer, 0, buffer.length

    1熱度

    1回答

    我是聲音編程的新手。我有一個實時聲音可視化工具(http://www.codeproject.com/Articles/20025/Sound-visualizer-in-C)。我從codeproject.com下載它。 在AudioFrame.cs類有一個數組如下: _fftLeft = FourierTransform.FFTDb(ref _waveLeft); _fftLeft是雙陣列。