accelerate-haskell

    2熱度

    1回答

    我一直在試圖編寫一個函數,該函數將採用使用加速庫的矢量直方圖。我認識到直方圖不是GPU處理的想法,但是我從小的種子生成一個相當大的數據集,如果在將其傳輸回主內存之前可以將其減少到幾千字節的陣列,那將會很不錯。 我想到的代碼如下。這需要多個輸出倉然後然後創建其中[X]是x的出現次數的XS值 hist :: A.Exp Int -> A.Acc (A.Vector Int) -> A.Acc (A.V

    2熱度

    1回答

    我一直在試驗Haskell的加速度,我在想如何調整矢量大小(Array DIM1 a)?我注意到重塑,但它的來源和結果的大小必須相同,但我想要擴大兩倍。

    1熱度

    1回答

    我想在repa-io使用writeImageToBMP將陣列寫入BMP文件之前將加速陣列轉換爲repa陣列。忽略加速中存在這樣一個函數的事實,我只是用它作爲問題的一個例子。採取: {-# LANGUAGE ScopedTypeVariables #-} import qualified Data.Array.Accelerate.Interpreter as A (run) import Da

    1熱度

    1回答

    情況 目前我正在處理邊緣檢測的項目。因此我想使用加速陣列來計算算法以獲得更好的性能。不幸的是,我對函數式編程,以及並行編程都很陌生,而且我也不知道什麼是正確的方法。 問題 到給定的圖像轉換爲灰度級或甚至以執行邊緣檢測我需要訪問每個陣列的像素/值。 使用非加速數組(Data.Array包)我可以使用(!) - 運算符來獲得所需的值。 使用加速陣列(該Data.Array.Accelerate封裝)也

    2熱度

    2回答

    我有興趣加速加速庫,我想對存儲在CSV文件中的數據執行一些操作。我已閱讀this excellent introduction to Accelerate,但我不確定如何才能將CSV讀入高效加速。我考慮過這個問題,我唯一能想到的是將整個CSV文件解析爲一個長列表,然後將整個列表提交到加速。 我的數據集將會非常大,並且將1 gb +文件讀入內存只是爲了複製其他地方似乎並不高效。我注意到Hackage