avaudioengine

    5熱度

    2回答

    我一直在四處搜索Swift文檔到保存AVAudioEngine的音頻輸出,但我找不到任何有用的提示。 有什麼建議嗎? 解決方案 我發現一個解決方法,謝謝馬特的答案。 這裏的如何使其通過AVAudioEngine 後保存音頻樣本代碼(我認爲這在技術上是之前) newAudio = AVAudioFile(forWriting: newAudio.url, settings: nil, error:

    1熱度

    1回答

    我想處理帶有音頻單元效果(AVAudioUnitEffect)的設備內置麥克風(AVAudioInputNode)中的音頻。對於我的示例,我使用AVAudioUnitReverb。正在連接AVAudioUnitReverb正在導致應用程序崩潰。 import UIKit import AVFoundation class ViewController: UIViewController {

    0熱度

    1回答

    我已經使用AVAudioEngine設置了一個簡單的圖表,只需將默認輸入節點的數據放入耳機中(音頻監視) - 這應該只是讓您的耳機複製任何聽到的信息麥克風和它,背景噪音重定向到你的耳朵,當運行這個應用程序,但是,有一個問題:即使外部麥克風插入iPad,它總是會採取內置麥克風的輸入。 AVAudioSession告訴我,輸入應該使用外部麥克風(通過[[AVAudioSession sharedIns

    5熱度

    6回答

    我試圖使用新AVAudioEngine iOS中8 它看起來像player.scheduleFile的completionHandler()被調用前的聲音文件完成比賽。 我使用長度爲5s的聲音文件 - 和println() - 在聲音結束前約1秒出現消息。 我做錯了什麼或者我誤解了completionHandler的想法? 謝謝! 下面是一些代碼: class SoundHandler {