我工作的一個音高的識別問題在iOS上,對於分析目的,我使用蟒蛇它給了我相應的結果....但在使用accelerate framework
,當我試圖重新在同樣的事情的iOS它給出不正確或奇怪的結果。有人可以幫我解決這個問題。如何使用加速框架將scipy.signal.fftconvolve移植到swift中?
我想用FFT convolution
,使用scipy.signal.fftconvolve
這恰好相當不錯,在蟒蛇執行autocorrelation
。但是當我試圖使用vDSP_conv
來做同樣的事情時,它會給出不正確的結果。
如果有經驗或知識的人可以指導我或解釋fftconvolve是如何工作的,那將會非常有幫助。 在此先感謝。