audioqueue

    1熱度

    2回答

    我目前通過AudioQueues播放音頻。我想讓用戶連接到Airplay設備。 如果我創建一個MPVolumeView並使用'showsRouteButton'來顯示路徑按鈕,我可以成功連接。 有沒有辦法將音頻路由更改爲Airplay而不使用MPVolumeView?還是更簡單的蘋果視圖,只是路由按鈕?

    0熱度

    1回答

    這是我的用於使用音頻隊列生成噪聲碼: http://pastebin.com/Kn8GU72J 的問題是,我的代碼生成EXC_BAD_ACCESS。該問題似乎在分配 MAAudioManager *audioMngr = (__bridge MAAudioManager *) inUserData; 在回調例程中。 我懷疑這可能與MAAudioManager類的線程訪問有關。 有什麼想法?

    3熱度

    2回答

    根據我的理解,音頻隊列服務是比使用音頻單元的音頻單元更高級別的API。 OpenAL也使用音頻單元。所以音頻單元是iOS中最低級別的音頻API。 我需要錄製聲音,然後將自定義過濾器應用到音頻流並播放。音頻隊列服務似乎很適合錄製,而且它們也可以用於播放。但我仍然不確定他們是否允許將自己的算法應用於音頻流,就像AURemoteIO音頻單元一樣。

    12熱度

    2回答

    我正在努力將音頻導入iPhone,並將其傳遞給(C++)分析算法。當然,還有很多選項:AudioQueue教程at trailsinthesand讓事情開始。 音頻回調,但是,給出了一個AudioQueueRef,我發現Apple的文檔在這方面很薄。內置的方法來寫入文件,但沒有什麼地方你實際上在數據包內部查看數據。 我需要數據。我不想寫任何文件,這是所有教程 - 甚至蘋果的便利I/O對象 - 似乎

    0熱度

    1回答

    我需要實現我的應用程序的代碼來緩衝和播放我正在流式傳輸的音頻文件。 我得到了一個選項AudioQueue,但沒有找到太多的代碼來理解要實現的東西。 我嘗試過簡單地創造流光和摧毀流光。 -(void)destroyStreamer { if(streamer) [streamer stop]; } -(void)createStreamer { if(str

    1熱度

    1回答

    我的應用使用ffmpeg來解析mms streaming緩衝區,並使用音頻隊列來播放緩衝數據。現在我可以確認緩衝數據是好的,但我無法播放它。打球的結構是基於AudioFileStreamExample演示的客戶端,它可以起到HTTP流(AudioFileStreamExample演示的服務器)。我注意到在回調函數: void MyPacketsProc(void *inClientData, UI

    2熱度

    1回答

    如何在AudioQueue中使用AudioQueueRef設置音量? 我已經referef許多問題在計算器上對此但是所有的人都使用AudioQueueRef對象。 有沒有可能這樣做,而不使用AudioQueueRef? 請建議 謝謝。

    1熱度

    1回答

    我正在努力研究如何將數據從緩衝區傳遞到數組,以允許我顯示緩衝區中的內容。有沒有代碼的地方是一個簡單的記錄音頻和讀取緩衝區的例子?越簡單越好。 我試圖做一些實時的事情,而不是從保存的文件中讀取數據。我可以粘貼一些我嘗試過但沒有成功的代碼。

    0熱度

    1回答

    我在追加額外記錄後播放音頻數據時出現問題。這裏是事件的一般順序,但不返回任何錯誤: AudioQueueNewInput // Start audio queue AudioFileCreateWithURL // Create audio file AudioFileSetProperty // Set magic cookie AudioQueueAllocateBuffer //

    1熱度

    1回答

    我正在使用錄音機並使用SpeakHere示例代碼中的AQRecorder。我想在UI上添加一個滑塊來顯示錄製時間。我在錄製開始時使用初始化的簡單定時器來完成此操作。但有時錄音滯後1秒。例如,滑塊顯示10秒,但保存時音頻的實際持續時間爲9秒。 有沒有什麼辦法讓我可以在錄製更新滑塊時獲得精確的持續時間,而不是使用計時器。 我嘗試以下方法也 NSTimeInterval AQRecorder::GetT