openmpi

    1熱度

    1回答

    我不知道我是否理解錯誤。但這裏是我想達到與在的openmpi什麼特別與剛剛啓動的mpirun: 我想用指定世界大小爲1 那麼我想設置的參數-np創建一個單一的過程宇宙大小爲一些任意數字(爲了參數10),我該怎麼做? 以下兩個命令: MPI_Comm_size(MPI_COMM_WORLD,& world_size); MPI_Attr_get(MPI_COMM_WORLD,MPI_UNIVERSE

    1熱度

    2回答

    我是MPI的新手。我寫了一個簡單的代碼來顯示使用多個進程的矩陣。說如果我有一個8x8的矩陣,並用4個進程啓動MPI程序,則會在第一個進程中打印第一個2行,由第二個線程打印的第二個2行將通過平均分割來打印。 #define S 8 MPI_Status status; int main(int argc, char *argv[]) { int numtasks, taskid; in

    0熱度

    1回答

    最近,我下載並安裝了Fedora Scientific 20,因爲我對 留下了深刻印象的軟件列表。我對軟件 的興趣是由於包含了MPI框架。我能夠編譯並使用mpicc和mpiexec執行一個簡單的C程序。不過,我需要一些 幫助使用MPI4PY使用Python代碼調用OpenMPI。 在終端提示,如果我嘗試: $ /lib64/openmpi/bin/mpiexec -n 2 python3 hell

    2熱度

    1回答

    我正在鏈接一個使用OpenMPI內部進程支持構建的庫。 我的應用程序正在構建,沒有MPI支持,我鏈接到這個庫。我不知道mpi問題背後發生了什麼。如果庫A從openmpi加載/調用函數,這是否意味着我可以使用runmpi運行我的應用程序以使庫進程自行分發?如果我決定讓應用程序MPI知道並且想要使用mpich2而不是OpenMPI,或者如果我想使用鏈接到mpich而不是openmpi的庫B,庫和我的應

    2熱度

    1回答

    我有下面的代碼,我編譯和運行用: mpicc -std=c99 region.c mpirun -n 4 region $的mpirun -version 的mpirun(開放MPI)1.6.5 $ mpicc --version GCC(Ubuntu的4.8.2-19ubuntu1)4.8.2 #include <stdio.h> #include <stdlib.h> #includ

    2熱度

    1回答

    我運行一個使用Boost MPI(1.55)在開放MPI(1.6.1)計算羣集上項目。 我們的集羣有一個有64個CPU的節點,我們產卵上的每個單一的MPI進程。我們大多數的溝通是在各個進程之間進行的,每個進程都打開一系列irecv()請求(針對不同的標記),並使用send()進行阻塞。 我們得到的問題是,處理(通常在10分鐘)的短時間之後,我們得到這個錯誤,導致該程序結束: [btl_tcp_co

    1熱度

    1回答

    我的問題是當超額訂閱時可以使用--bind-to-core標誌嗎?我使用OPEN MPI版本1.5.4,並與2(32個進程上16個內核)的一個因素試圖使用超額認購: mpirun --bind-to-core --bynode --npersocket 32 --mca mpi_yield_when_idle 1 -n 32 ./$prog 但它返回我一個錯誤: 32 total proces

    0熱度

    2回答

    我想問你一個解釋什麼是「InfiniBand-Stacks」。那些最近在我們的機器上發生了變化,我開始遇到MPI通信故障。我需要一些信息來了解這可能如何影響我的並行工作的穩定性。我 實際的錯誤信息是: 的處理無法創建隊列對。這通常意味着或者 設備已用完隊列對(連接太多),或者存在可用於分配隊列對的資源不足( 內存)。如果1)內存不足可用,或者2)沒有更多的物理內存可以註冊到設備,則後者可能發生。

    0熱度

    1回答

    在我的代碼我有這樣的乘法在C++代碼與對應於這些值 Force Rot1 : -5.39155e-07, -3.66312e-07 Force Rot2 : 4.04383e-07, -1.51852e-08 xu: 0.786857, 0.561981, 0.255018 yu: 0.534605, -0.82715, 0.173264 F1: -6.2007e-07, -4.617

    0熱度

    1回答

    目前,我有一個很好的C++圖形算法,用自定義結構體定義的鏈接列表或鏈接列表數組(我應該把它變成模板定義,但目前不是)。這個算法很容易分發,我想測試一下。但是,除了理解一些基本的MPI示例之外,我沒有太多的OpenMPI經驗。 如何在OpenMPI中使用鏈接列表? 在MPI中使用鏈接列表的常用做法是什麼?例如,當我將鏈表傳遞給其他進程並將其轉換回來時,我可以將鏈表轉換爲數組。 我需要分別處理每個鏈表