我一直在玩蘋果的aurioTouch演示,這是他們的音頻單元教程的示例代碼。此應用程序允許從麥克風同時輸入/輸出。給演講者。它還呈現麥克風輸入聲音的立體畫面。iOS:Audio Unit RemoteIO AudioBuffer操作(即來自麥克風的聲音效果)
在這個低級別過程的真正高級別中,示例代碼定義了一個AudioComponent(在本例中爲允許同時輸入/輸出的RemoteIO),並且此音頻單元有一個回調回調。在回調中,他們根據麥克風的AudioBuffer聲音數據進行一些音頻過濾(DC拒絕濾波器)和立體顯示的可視化。
我的最終目標是根據麥克風的輸入創建自己的定製聲音失真音頻單元。我認爲基於音頻單元教程的正確方法是製作第二個音頻單元,並將它們連接到音頻處理圖表。但是,我讀過iOS不允許您註冊自己的自定義音頻單元。我的問題是:
- 我可以做的AudioBufferList直接操縱,我從remoteIO音頻單元呈現回調訪問(因爲他們似乎已經在做這一點,並在其上應用的音頻過濾器)和在那裏創建自己的自定義聲音失真?
- 我試過將AudioBufferList數據分配給一個常量(我從一個樣本運行和AudioBufferList記錄中看到它存在一個值),但它似乎什麼都不做。
任何尋找github鏈接的人,現在該代碼已移至: https://github.com/openframeworks/openFrameworks/blob/master/addons/ofxiPhone/src/sound/ofxiPhoneSoundStream.mm – 2013-02-14 07:16:24