audiounit

    1熱度

    1回答

    我無法使AVAudioEngine(OS X)在所有采樣率下都播放良好。 這裏是我的代碼用於建立連接: - (void)makeAudioConnections { auto hardwareFormat = [self.audioEngine.outputNode outputFormatForBus:0]; auto format = [[AVAudioFormat al

    0熱度

    1回答

    我想使用新的AU Extentions v3框架爲iOS創建一個Audio Unit Extension。 Apple提供的文檔和示例代碼很少,只能以Swift格式提供。 這是否意味着它只能使用Swift創建AU擴展,還是在理論上也可以使用Objective-C?換句話說:當我嘗試將示例代碼移植到Objective-C中時,會遇到阻塞的情況嗎?

    0熱度

    1回答

    我無法解釋iOS中remoteIO audiounit回調的行爲。我正在設置一個帶有兩個回調的remoteIO單元,一個用於輸入回調,另一個用於「渲染」回調。我正在按照與this tasty pixel教程中推薦的類似的方式來執行非常類似的remoteIO設置。這是相當長度的設置方法: - (void)setup { AudioUnit ioUnit; AudioComp

    0熱度

    2回答

    我最近使用AudioUnits在Mac上設計了一個Sound錄音機。它的設計表現就像一個視頻安全系統,連續錄製,帶有用於播放瀏覽的功率級圖形顯示。 我注意到每85分鐘出現3分鐘扭曲。消除一天後,似乎在回調之前發生的聲音採集被稱爲使用循環緩衝區,並且回調的audioUnitRender函數從該緩衝區中提取,但速度稍慢,這最終導致內部緩衝區寫入環繞並捕捉用audioUnitRender讀取。雙工操作測

    2熱度

    1回答

    我正在爲我的iphone創建一個玩具合成器項目,我可以在這裏拖動我的手指以及基於x座標的x &的頻率和音量變化。它的作品非常漂亮,聽起來很棒,甚至根據聲音的音調和音調改變顏色。雅虎。但是我現在試圖爲這個聲音添加效果,並且我已經達到了某種混亂。 目前,我沒有使用AUGraph。我更簡單地調用remoteIO單元併爲其分配一個呈現回調函數,在該函數中,我將其連續的樣本值流形成一個正弦波。而且我聽到了一

    2熱度

    1回答

    這是一個後續到以前的問題: OSX CoreAudio: Getting inNumberFrames in advance - on initialization? 我試圖找出什麼將是AudioUnit API的可能設置inNumberFrames或較受歡迎的輸入回調的IO的緩存時間對於單個HAL音頻組件實例OSX(不是插件!)。 雖然我知道有一個全面的文檔,說明如何在iOS中實現這一點,通過A

    0熱度

    1回答

    我正在開發一個音頻插件,並希望將LFO映射到各種參數。插件如何訪問DAW的BPM值和時間簽名? 主機是否需要通過VST或AU協議公開此信息,或者在運行時它應該如何訪問插件屬性?

    0熱度

    2回答

    我一直看到使用kAudioUnitSubType_RemoteIO爲Apple音頻單元api的示例。不過,我想知道什麼框架/頭文件包含這個常量。

    0熱度

    1回答

    如何確定渲染回調中的採樣率? 看來我可以覆蓋shouldChangeToFormat(_:forBus:),但似乎這樣一個「應該」函數不應該用於查詢狀態。 並且每條總線都有自己的渲染格式,但顯然只有一個採樣率用於處理,這增加了混淆。

    2熱度

    1回答

    我寫了一個使用「novocaine」庫來錄製和播放聲音的voip應用程序。我將採樣率設置爲8kHz。此採樣率在音頻單元的AudioStreamBasicDescription中設置爲novocaine,並設置爲音頻會話屬性kAudioSessionProperty_PreferredHardwareSampleRate。據我所知,設置首選硬件採樣率並不能保證實際的硬件採樣率會發生變化,但它適用於除