numba-pro

    0熱度

    1回答

    我一直在關注一個例子(https://github.com/ContinuumIO/numbapro-examples/blob/master/convolution/fftconvolve.py)給與fftconvolve與圖像和內核,都是二維數組。在我的用例中,我想用兩個1D陣列來做fftconvolve來尋找可能的匹配和延遲。我試圖將示例轉換爲1D,但收到了幾個Invalid type co

    0熱度

    1回答

    我嘗試用numba來使用cuda python。 代碼是計算1D數組的總和如下,但我不知道如何得到一個值的結果,而不是三個值。 python3.5與numba + CUDA8.0 import os,sys,time import pandas as pd import numpy as np from numba import cuda, float32 os.environ['NUM

    4熱度

    1回答

    我正在學習如何在GPU加速計算蟒從this notebook,其中一條線讓我困惑: mandel_kernel[griddim, blockdim](-2.0, 1.0, -1.0, 1.0, d_image, 20) 這裏,mandel_kernel是一個裝飾(由cuda.jit)函數,griddim和blockdim是長度爲2的元組:griddim=(32,16),blockdim=(32

    -1熱度

    1回答

    我想獲得數組的不同部分的總和。 我運行我的代碼。並從打印的內容中發現兩個問題。 PRO1: 詳細介紹here。它已經解決了。也許這不是一個真正的問題。 PRO2: 在我的代碼,我紅粉不同的值SBUF [0,2],SBUF [1,2],SBUF [2,2]和SBUF [0,3],SBUF [1,3],sbuf [2,3]。 但是發現在cuda.syncthreads()之後,sbuf [0,2]和s

    0熱度

    1回答

    兩部分問題,對於任何一部分都非常感謝。我試圖在AWS EB上安裝Anaconda,然後是numbapro。我在.ebextensions options.config看起來是這樣的: commands: 00_download_conda: command: 'wget http://repo.continuum.io/archive/Anaconda2-4.3.0-Linux-x86_64.

    1熱度

    1回答

    什麼是檢查cuda的正確anaconda加速函數? 有了你可以使用numbapro: >>> from numbapro import check_cuda numbapro:1: ImportWarning: The numbapro package is deprecated in favour of the accelerate package. Please update your co

    0熱度

    1回答

    我試圖來解決單純使用GPU優化的熵問題。因爲每一次單純的迭代都依賴於前一次迭代,所以我相信我沒有辦法讓我的算法平行。 但是已經做了PyOpenCl和Numbapro一些研究,OpenCL的提供了一個類型的編程架構的SIMD叫。我只是想知道Numbapro會提供相同的嗎? 到目前爲止,我已經試過jit,autojit &矢量化的代碼的一部分,但沒有跡象表明性能改善。

    2熱度

    1回答

    我是CUDA新手,想弄清楚PyCUDA (free)或NumbaPro CUDA Python(不是免費)對我來說是否會更好(假設圖書館的成本不是問題)。 兩者似乎都要求您使用各自的Python方言。但是,PyCUDA似乎要求你在C代碼中編寫內核函數,這比使用NumbaPro更麻煩,而NumbaPro似乎爲你做了所有的辛苦工作。 這的確是這樣嗎?會有明顯的性能差異嗎?

    0熱度

    1回答

    我在GPU中用math.log計算對數,這是Supported Python features in CUDA Python之一。但失敗了。 我的代碼: import os,sys,time,math import pandas as pd import numpy as np from numba import cuda, float32 import os bpg = (3,1

    0熱度

    1回答

    我試圖用numbapro寫下面一個簡單的矩陣向量乘法: from numbapro import cuda from numba import * import numpy as np import math from timeit import default_timer as time m = 100000 n = 100 @cuda.jit('void(f4[:,:], f