gpu-programming

    1熱度

    1回答

    gx = gpuArray(uint8(X)); gtm = gpuArray(uint8(tm)); gx = arrayfun(bitxor,gtm,gx); 錯誤: Error using ==> bitxor Not enough input arguments. Error in ==> Encryption at 57 gx = arrayfun(bitxor,gtm,

    2熱度

    2回答

    在並行計算中,通常是將原始問題分解爲子任務並將其映射到塊和線程上的第一步。 對於具有常規數據結構的問題,這是很容易且有效的,例如,矩陣乘法,FFT等。 但圖形理論問題,如最短路徑,圖的遍歷,樹搜索,有不規則的數據結構。至少在我看來,使用GPU分割問題到塊和線程似乎並不容易。 我想知道是否有這種分區有效的解決方案? 爲簡單起見,取單源最短路徑問題作爲一個例子。我被困在如何劃分圖形,使地方和凝聚。

    2熱度

    2回答

    我是OpenCL的新手,我正在編寫一個RSA保理應用程序。理想情況下,應用程序應該可以在NV和AMD GPU目標上運行,但是我沒有找到一種簡單的方法來確定每個GPU上的內核/流處理器總數。 是否有一種簡單的方法可以確定在任何硬件平臺上有多少個總內核/流處理器,然後在每個可用內核上產生一個保理線程?目標RSA模數將位於共享內存中,並且每個因數分解線程都使用對模數的Rho分解攻擊。 此外,任何想法,如

    1熱度

    1回答

    我有以下內核 __global__ void func(float * arr, int N) { int rtid = blockDim.x * blockIdx.x + threadIdx.x; if(rtid < N) { float* row = (float*)((char*)arr + rtid*N*sizeof(float));

    7熱度

    2回答

    我正在尋找一個很好的API來實現GPU上的算法。我寧願相關的東西簡單而靈活。我不是在尋找最核心的表現,而是爲了我可以玩的東西。此外,我真的喜歡的東西,對Nvidia和ATI顯卡的作品都... 很好的建議,根據經驗特別是可能與一個賞金獎勵。 目前我們正在討論的算法是圖像處理,在非常大的矩陣即貼切簡單的操作... 我,我很想能夠只取PLINQ表達式的GPU,以及也有像System.Threading.

    2熱度

    2回答

    我正在研究一個在CUDA平臺上實現人臉檢測算法的項目。 當前我想訪問GpuMat實例上的元素。 我試過以下常規方法。 試圖從cv:Mat做出感應,GpuMat沒有<T>.at方法。 我試過使用CV_MAT_ELEM,我收到一個錯誤。 這是我在代碼FaceDetection.cu文件: int DetectFacesGPU(cv::gpu::GpuMat * sumMat ,cv::gpu::Gp

    1熱度

    2回答

    有人可能會告訴一般GPU並行計算工具箱使用的GPU共享內存。例如,我可以明確地使用它來同步MP單元。 順便說一句。我有一個GTX 580,它有1.5GB內存,每個MultiProcessor有32個內核(每個MP有16個內核)和64Kb共享(L1)內存。 感謝

    1熱度

    1回答

    我試圖建立我的Visual Studio環境與CUDA編程,但還是老樣子我米得到錯誤,cudaMemcpy是無法解決.. 如果你們PLZ幫助我設置環境。我使用C++編寫代碼。 在此先感謝。

    1熱度

    1回答

    我是CUDA的初學者,我試圖運行GPU Computing SDK中給出的示例,但它給了我以下錯誤。 文件:C:\ NVIDIA公司\ NVIDIA GPU計算SDK 4.1 \ C \ SRC \ VectorAdd函數\ vectorAdd_vs2008.vcproj 行:22 列:4 錯誤消息: 自定義生成規則文件「C:\ Program Files文件(x86)\ Microsoft Vi

    4熱度

    2回答

    我有一個CUDA代碼,就像下面: cpyDataGPU --> CPU while(nsteps){ cudaKernel1<<<,>>> function1(); cudaKernel2<<<,>>> } cpyDataGPU --> CPU 而且功能1是這樣的: function1{ cudaKernel3<<<,>>>