core-audio

    0熱度

    1回答

    我創建了一個允許混合多個視頻及其各自音軌的應用程序。我可以使用AVAudioMix編輯音量電平,但我真正希望能夠做的是調整每個音軌的聲像。我知道pan可以針對AudioUnit進行調整,但我不知道audiounits如何與AVMutableVideoComposition一起使用。平移也可用於AVAudioPlayers,但這也是AVFoundation的另一個區域。有誰知道我可以如何平移這樣的視

    0熱度

    1回答

    在我的應用程序中,我正在渲染回調中進行音頻處理(僅輸入,不輸出)。 這裏是我初始化音頻: -(void) initAudio { OSStatus status; NewAUGraph(&graph); AudioComponentDescription desc; desc.componentType = kAudioUnitType_Output; desc.compone

    2熱度

    2回答

    我正在學習如何構建OSX應用程序,我在想是否有方法檢查是否有任何應用程序正在輸出某些音頻系統?謝謝

    1熱度

    1回答

    這是在iPhone 6s和6s +推出後我的應用出現的一個問題,我幾乎肯定這是因爲新型號的內置麥克風在48kHz處卡住錄音(您可以閱讀更多關於此here)。爲了澄清,這已經不是我測試過的以前的手機型號的問題。我將通過我的音頻引擎實施以及不同點的不同結果,具體取決於下面的手機型號。 所以發生了什麼 - 當我的代碼在以前的設備上運行時,我在AVCaptureDevice返回的每個CMSampleBuf

    0熱度

    1回答

    我在播放應用程序後臺播放音頻時遇到問題。我打開了目標>功能中的Background Modes,並選中了Audio, Airplay and Picture in Picture & Background fetch模式的複選框。 我正在使用核心音頻(不知道這是否有所作爲)。我是否錯過了讓音頻在後臺播放的步驟?音頻播放完全正常時,客戶端是在前臺,但一旦應用程序被轉到後臺,音頻停止

    0熱度

    2回答

    任何人都可以幫我解除錄製的音頻文件中的初始靜音嗎? 我正在讀取wav文件的數據字節,忽略了第一個44字節的字節後得到0字節的結束範圍,這些字節在wave文件中是無聲的。 然後從總數據字節,無聲音頻字節的結束範圍和文件的總持續時間,我計算音頻文件的靜音時間,並從音頻文件中修剪那麼多時間。 但問題是仍然有一些沉默的部分留在音頻文件中。 所以不知道我錯過了什麼嗎? - (double)processAu

    -2熱度

    1回答

    我能夠使用遠程I/O框架讀取麥克風數據,但是我想讀取數字音頻數據通過USB電纜。

    1熱度

    1回答

    當我在iOS9應用運行下面的命令: AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayback) 然後被示出在命令行上的以下消息: ERROR: 126: IPCAUClient: bundle display name is nil 任何建議?

    4熱度

    2回答

    我想用AVAudioEngine和用戶麥克風錄製一些音頻。我已經有一個工作示例,但只是無法弄清楚如何指定我想要的輸出格式... 我的要求是,我需要AVAudioPCMBuffer,因爲我現在正在說它.. 我需要添加一個獨立的節點來做一些轉碼嗎?我找不到很多有關這個問題的文檔/樣本... 而且我也是一個菜鳥,當談到音頻材料。我知道,我想NSData含PCM-16位16000一個最大采樣率(8000會

    1熱度

    1回答

    我正在構建某種音頻推子效果。 我正在使用vDSP_vdbcon將卷的緩衝區轉換爲分貝,在db-space中應用一些修改,並且想要使用加速框架將分貝緩衝區轉換爲卷,但是我找不到反函數(猜測其數學太弱,無法想象出明顯的)... 謝謝!