audio-processing

    9熱度

    1回答

    我想使用bash腳本將audio.mp3音軌添加到無聲的video.mp4文件中,「cvlc」的正確語法是什麼? 「」ffmpeg「命令行? 我用VLC和--no-audio選項錄製了視頻,因此沒有可以從原始視頻複製的比特率或編碼等設置。

    1熱度

    2回答

    我試圖找到字與字之間的間隔時間在幾個MP3(音頻文件) 在進一步深入之前,讓我對我的音頻文件,如下解釋: 我問我的受試者產生儘可能多的動物名稱儘可能60秒。我記錄了他們的演講。 因此,所有的mp3文件都是動物名稱的序列。通過只輸入(也就是說,不是連續一句) 首先,我讀的文件之一,並作出圖: plot(data); 圖爲如下: 我覺得有些地方最大值是動物命名的候選人。但是,我無法弄清楚並得到動物

    0熱度

    1回答

    我目前在環境聲音分類方面存在問題。我想使用音頻分類來檢測特定類型的聚焦聲音(這確實是非常不同的,並且很容易被人耳區分出來)。但是還有其他類型的可能發生的聲音對我來說並不重要,即我所需要的只是不將它們歸類爲我的「特定類型的合成聲音」。 我正在嘗試使用GMM & LFCC來做分類。一種GMM模型由所有LFCC從這種類型的隱蔽聲音訓練而來,併爲所有其他LFCC(來自某些非碰撞環境聲音或來自我不想要的某種

    2熱度

    1回答

    我試圖用狄拉克3 LE庫伸展音頻在XCode項目,一切工作就像一個魅力,除了這個方法: - (NSTimeInterval) currentTime; 在DiracAudioPlayerBase.h中。該方法應該返回音頻文件中的當前位置(根據文檔)。 但是對於我來說,不管音頻文件播放多長時間,這個總是返回0。當我查看包含的演示時,情況也是如此。有沒有人有同樣的問題?我希望任何人都可以幫助我。

    0熱度

    1回答

    我試圖從使用Web Audio API瞬時(不是實時)從URL加載的聲音中提取振幅信息,這可能需要OfflineAudioContext。我希望沿着包含聲音振幅的陣列獲取某些東西,每隔t秒,持續聲音的時間(大小取決於聲音的持續時間,除以t)。不幸的是,目前文檔很少,我不確定如何繼續。如何加載聲音並每隔t秒提取振幅?

    0熱度

    1回答

    有沒有辦法提取元素的AudioBuffer進行分析?如果可能的話,我想避免處理使用XMLHttpRequest時出現的跨源問題。

    0熱度

    1回答

    我正在嘗試製作一個Java聲音可視化器,但是我絕對不知道如何從提取的音頻中獲取字節,緊接着它們被實時處理後。我可以將程序與wav文件同步,但這不是我想要做的,我想用程序生成聲音,然後播放它,而不是將它保存到任何地方。 感謝您的幫助!

    1熱度

    2回答

    我需要關於這個想法的一些建議,我曾經爲UNI項目提供過一些建議。 我想知道是否有可能將音頻文件從不同的音頻源分成不同的「流」。 例如,將音頻文件拆分爲:發動機噪音,火車噪音,語音,所有時間不存在的不同聲音等。 我不一定需要用編程語言來做這件事(儘管它會是理想的),但也可以通過使用Sound Forge等聲音處理軟件進行手動操作。不過,我需要知道這是否可能。我對聲音處理一無所知。 第一階段完成後(分

    0熱度

    2回答

    我有以下的方法,收集來自IMediaSample PCM數據轉換成float型的FFT: public int PCMDataCB(IntPtr Buffer, int Length, ref TDSStream Stream, out float[] singleChannel) { int numSamples = Length/(Stream.Bits/8);

    2熱度

    1回答

    我一直在努力調整記錄一段音頻的從代碼之後的間距: http://developer.android.com/guide/topics/media/audio-capture.html 我的猜測是,這個調整應該與實現MediaRecorder。 http://developer.android.com/reference/android/media/MediaRecorder.html 不過,我不能