2017-06-02 68 views
0

我工作的一個音高的識別問題在iOS上,對於分析目的,我使用蟒蛇它給了我相應的結果....但在使用accelerate framework,當我試圖重新在同樣的事情的iOS它給出不正確或奇怪的結果。有人可以幫我解決這個問題。如何使用加速框架將scipy.signal.fftconvolve移植到swift中?

我想用FFT convolution,使用scipy.signal.fftconvolve這恰好相當不錯,在蟒蛇執行autocorrelation。但是當我試圖使用vDSP_conv來做同樣的事情時,它會給出不正確的結果。

如果有經驗或知識的人可以指導我或解釋fftconvolve是如何工作的,那將會非常有幫助。 在此先感謝。

回答

0

我需要看你的代碼才能完全回答這個問題,但是基於vDSP_conv的Accelerate文檔,你確定你正確地傳遞了參數嗎?如果IF爲正,則vDSP_conv將執行相關,如果IF爲負,則執行卷積。您還需要小心地正確指向要執行卷積的矢量。當我將翻譯的Python代碼帶入Swift/ObjC並使用Accelerate框架時,我需要試用簡單小矢量上的加速函數,以確保我理解函數的工作方式。

https://developer.apple.com/documentation/accelerate/1450516-vdsp_conv?language=objc