audio-processing

    1熱度

    1回答

    我想實時獲取從麥克風獲取的語音輸入的頻率。我搜索了這個,並瞭解了FFT和另外的2,3種算法,但是實現這些算法似乎非常複雜。 我正在尋找一個C#庫,使我能夠將頻率簡單地插入到數組中而無需實現它。

    0熱度

    1回答

    有沒有一個簡單的方法做到這一點,還是我需要交錯渠道,並創建一個DataView包含特定的標題格式以及交錯的數據?

    0熱度

    1回答

    我希望以小量(±25%)的速度改變音頻文件(.wav格式)的速度。問題是我需要保留文件的先前採樣率。這兩種解決方案都涉及到速度和音調的變化,以及速度的變化(速度變化)都是值得歡迎的,理想情況下我希望分開進行。

    11熱度

    1回答

    我正在嘗試使用deeplearning4j來訓練用於數字(音頻)信號處理的RNN。 這個想法是有2個.wav文件:一個是音頻錄製,第二個是相同的音頻錄製,但處理(例如用低通濾波器)。 RNN的輸入是第一個(未處理的)音頻記錄,輸出是第二個(已處理)的音頻記錄。 我已經使用了dl4j示例中的GravesLSTMCharModellingExample,並且大多使用CharacterIterator類

    0熱度

    1回答

    我不知道有機數字儀器是如何創建的。他們只是使用他們錄製的WAV文件並在按鍵上播放它們,還是通過合成來創建聲音? 那將是非常好的知道:)

    1熱度

    1回答

    我想設置在AudioKit許多帶通濾波器,聲源拉低總線/鏈分成許多帶,每個用於進一步處理。 AudioKit具有在序列或總線節點。每個節點都有輸入,執行某些操作並輸出。對於圖形EQ [1],該示例將每個頻段的節點傳遞到EQ的下一個頻段的節點。但是,對於一個帶通濾波器,我會假設,每個帶通濾波器節點將有相同輸入。否則,只有通帶纔會通過下一個帶通濾波器,然後它會發現任何東西本身不會通過... 說我帶通濾

    2熱度

    1回答

    第一次在這裏發佈,讓我們看看這是怎麼回事。 我試圖在python中編寫一個腳本,它會在wav文件的開頭添加第二個沉默,但是到目前爲止這樣做沒有成功。 我想要做的是在wav頭文件中讀取,然後使用wave模塊添加一個\ 0開始,但那樣做效果不好。這裏是從這裏http://andrewslotnick.com/posts/audio-delay-with-python.html import wave

    2熱度

    1回答

    每當我嘗試讀取.wav文件時,出現以下錯誤。 我到處搜索,但沒有任何進展。 CODE: import scipy as sp import matplotlib.pyplot as plt sr, y = sp.io.wavfile.read(MY_FILENAME) print sr 錯誤: File "/usr/local/lib/python2.7/dist-packages/sc

    1熱度

    1回答

    我已經問過的DSP.SE這個問題,但我的問題一直沒有得到重視。也許它與信號處理沒有太大的關係。 我需要離散的音頻信號劃分成段,以對他們的一些統計處理和分析。因此,具有固定地方平均值的部分對我的情況會非常有幫助。段的長度是預定義的,例如, 樣品。 我已經試過幾件事情。我使用reshape()功能的音頻信號劃分成段,然後計算各段的手段: L = 512; % Length of segm

    0熱度

    1回答

    我是新來的iOS編程,我想將Android應用使用斯威夫特3. iOS版應用的核心功能是讀取從字節流麥克風和現場處理此流。因此,將音頻流存儲到文件並在錄製停止後進行處理是不夠的。 我已經找到了AVAudioRecorder類的作品,但我不知道如何將數據傳輸實況(過濾,將其發送到服務器等)處理。該AVAudioRecorder的初始化函數看起來像這樣: AVAudioRecorder(url: fi