我想了解如何處理在OSX中單個輸入參數數組的音頻呈現中使用多個CPU核心的可能性。CoreAudio:多線程後端OS X
在AudioToolbox中,一個渲染回調通常駐留在單個線程上,該線程似乎被單個CPU內核處理。
如何處理該內核上的輸入數據溢出,而其他3,5或7個內核幾乎處於閒置狀態?
當然,無法預先知道特定機器上有多少核心可用。 是否有(靜態或動態)將渲染回調分配給不同線程或「破壞塊」的方法? 有沒有一種方式可以精確地同步各自呈現回調並行(最高優先級)線程並行產生音頻緩衝區的時刻? 有沒有GCD API可能有什麼用?
在此先感謝!
PS。這個問題與我之前發佈的另一個問題有關: OSX AudioUnit SMP,不同之處在於我現在似乎更好地理解了問題的範圍。
這是一個很好的問題,但我不認爲有答案。我不知道OS X上有任何機制允許線程在多個核上運行,或者影響渲染線程的數量。 – sbooth