2011-03-21 58 views
-1

我正在閱讀MSDN的文檔來渲染流到音頻渲染器.. 或換句話說,播放從麥克風捕獲的數據。渲染一個音頻流(WASAPI/WINAPI)

http://msdn.microsoft.com/en-us/library/dd316756%28v=vs.85%29.aspx

該示例中提供了示例。

我現在的問題是我無法真正瞭解項目流程。 我目前有一個不同的類存儲下面的參數,我從捕獲過程中獲得。 這些參數將隨着程序捕捉來自麥克風的流式音頻數據而不斷重寫。

BYTE data; 
UINT32 bufferframecount; 
DWORD flag; 
WAVEFORMATEX *pwfx; 

我的問題是, 如何真正的loadData()函數的工作。 它是否想抓住我從捕獲過程中寫入的參數? 程序如何將數據發送到音頻渲染器,並在我的揚聲器中播放。

回答

0

loadData()函數填充由pData指向的音頻。該示例提取音頻源,因此這可以是從.wav文件到已捕獲的麥克風音頻的任何內容。因此,如果您正在嘗試從該示例構建,則只要調用loadData(),就會實現MyAudioSource類,並讓它只讀取文件中的PCM或浮點數樣本。然後,如果您運行該程序,它應該從文件中的揚聲器播放音頻。