我正在嘗試使用AUGraph中的發生器音頻單元,子類型audioFilePlayer正在播放的音軌同步可視化器。如何使用Core Audio的時鐘API?
我想使用Core Audio的時鐘API,但我沒有太多的信息。我發現this和this。
有沒有人知道一個很好的例子在英文或此API的任何文檔?
我正在嘗試使用AUGraph中的發生器音頻單元,子類型audioFilePlayer正在播放的音軌同步可視化器。如何使用Core Audio的時鐘API?
我想使用Core Audio的時鐘API,但我沒有太多的信息。我發現this和this。
有沒有人知道一個很好的例子在英文或此API的任何文檔?
答案是幾乎不存在的文件,我發現的唯一參考了蘋果的列表SERV指出,這不是一個發育完全的API。相反,如果您需要音頻時鐘數據,請使用您的發生器音頻單元註冊呈現回調。
AudioUnitAddRenderNotify(m_generatorAudioUnit, auRenderCallback, this);
OSStatus auRenderCallback (
void *inRefCon,
AudioUnitRenderActionFlags *ioActionFlags,
const AudioTimeStamp *inTimeStamp,
UInt32 inBusNumber,
UInt32 inNumberFrames,
AudioBufferList *ioData
)
{
AudioEngineModel* pAudioEngineModel= (AudioEngineModel*)inRefCon;
pAudioEngineModel->m_f64SampleTime= inTimeStamp->mSampleTime;
return noErr;
}
將mSampleTime除以sampleRate即可獲得秒數。
嘿justnS,謝謝你的這個鏈接。我以前從未見過這個消息來源。我不確定Clock API是否有任何內容,但這裏有很多內容,所以需要一些時間才能完成。 – Mark
鏈接轉到404 @justinself – fionbio
對不起@fionbio。這個答案差不多5年前。我猜它已經消失了。反正可能已經過時了。 –