core-audio

    0熱度

    4回答

    我在創建上述格式的描述時遇到了問題,並嘗試了許多操作,但在嘗試記錄時仍然收到無效的參數。 有沒有人有如何創建這種格式的例子? var audioFileOutputDescription : AudioStreamBasicDescription = AEAudioStreamBasicDescriptionNonInterleaved16BitStereo audioFileOutp

    0熱度

    1回答

    我正在使用CoreAudio低級音頻採集API。應用程序目標是MAC OSX,而​​不是iOS。 在測試過程中,我們不時用真實的音頻對噪聲進行非常煩人的調製。這些現象隨着時間而發展,從幾乎沒有引人注目的地步開始,變得越來越佔統治地位。 分析Audacity下的捕獲音頻表明音頻數據包的末尾部分是錯誤的。 下面是樣品圖像: 侵入重複每40ms哪個是所配置的分組時間(在緩衝液中的樣品計) 更新: 隨着時

    0熱度

    1回答

    我無法解釋iOS中remoteIO audiounit回調的行爲。我正在設置一個帶有兩個回調的remoteIO單元,一個用於輸入回調,另一個用於「渲染」回調。我正在按照與this tasty pixel教程中推薦的類似的方式來執行非常類似的remoteIO設置。這是相當長度的設置方法: - (void)setup { AudioUnit ioUnit; AudioComp

    0熱度

    2回答

    我最近使用AudioUnits在Mac上設計了一個Sound錄音機。它的設計表現就像一個視頻安全系統,連續錄製,帶有用於播放瀏覽的功率級圖形顯示。 我注意到每85分鐘出現3分鐘扭曲。消除一天後,似乎在回調之前發生的聲音採集被稱爲使用循環緩衝區,並且回調的audioUnitRender函數從該緩衝區中提取,但速度稍慢,這最終導致內部緩衝區寫入環繞並捕捉用audioUnitRender讀取。雙工操作測

    4熱度

    1回答

    如何以編程方式在Mac OS X中創建多輸出設備? 音頻MIDI設置程序提供了一個GUI界面來創建一個,但我希望能夠在代碼中創建一個。 我發現已經有一些資源用於創建聚合設備,但多輸出設備的功能不同,我無法找到任何創建它們的東西。下面是我到目前爲止有: How to combine multiple audio interfaces by creating an aggregate device U

    1熱度

    2回答

    我想直接的iOS VoiceOver的聲音耳機,即使它沒有插入。 換句話說,而我的應用程序打開時,VoiceOver的聲音(和其他聲音由我扮演在應用程序中使用AVSpeechUtterance等)不應該去揚聲器,但應該從耳機,如果連接。 任何人都可以提出一些建議嗎?

    1熱度

    1回答

    每當我在製作核心音頻應用程序時,特別是通過remoteIO音頻單元利用實時音頻呈現回調時,我開始運行音頻單元引擎無論我通過YouTube或iTunes播放的音樂都是靜音的。我必須重新加載YouTube網頁或重置我的系統首選項音頻設置以恢復聲音。有針對這個的解決方法嗎?

    1熱度

    1回答

    我正在嘗試處理使用ExtAudioFile讀取的音頻數據。但是,當我嘗試將這些數據放入循環緩衝區時,我聽到幾個故障。 在下面的示例代碼中,我將數據從「inBuffer」直接傳遞給「outBuffer」(Michael Tyson的TPCircularBuffer類型)。兩個緩衝區的大小都是10 x numberOfFrames * sizeof(float)。客戶端流格式爲單色浮點採樣。 爲什麼我

    0熱度

    4回答

    有沒有人有任何代碼片段顯示如何將M4a文件轉換爲WAV?我知道有些庫可以用其他方式進行轉換。 謝謝。

    0熱度

    1回答

    我正在實施一個VOIP應用程序,我想在一段時間內使麥克風靜音。爲了您的信息,我不想停止處理傳出音頻。我可以如何實現這一目標?