mpi

    0熱度

    2回答

    我有一個數據需要廣播給工作人員。 但是我不能接收它,即使我使用MPI_Wait而不是MPI_Test,除非我使用阻塞MPI_Bcast。 我不知道發生了什麼,我嘗試了很多方法,但都沒有工作。 在我的代碼中是否有任何錯誤? #include <stdio.h> #include <unistd.h> #include <mpi.h> int main() { int rank,

    0熱度

    1回答

    我正在努力瞭解OpenMPI中的信號處理。我讀到「Open MPI將SIGUSR1和SIGUSR2從mpiexec轉發到其他進程」。我的問題是,這是默認安裝啓用此功能。 這種情況是,一個MPI進程產生一個SIGUSR1,必須通過'orted'來檢測,然後轉發給其他進程。 在我的測試代碼中,我爲SIGUSR1定義了一個自定義信號處理程序,並相應地註冊了該信號處理程序。我使用kill()或raise(

    0熱度

    1回答

    首先,我有keypairs,雖然涉及到ssh,但這不是一個密碼問題。 我也有MPICH,Hydra,SLURM和lamd ...這是一個集羣計算問題。 Node0將啓動,但node1掛起。我已經有這個問題好幾天了。我的nfs鏡像工作的很好,我可以在node2上的8個核心上運行Game of ...這真的很酷,只是問我一下吧... 但是,當我想要在所有三個節點我一起點擊來自每個節點的密碼請求,因爲n

    0熱度

    3回答

    我正在並行運行MPI實例。在某些時候,每個實例都有一個100個排名值的列表。我現在想收集所有實例中的前100個值。 這怎麼能在MPI中完成?有專門的功能嗎? 謝謝!

    0熱度

    1回答

    我是MPI編程的初學者。我試圖執行一個代碼,其中使用A new [i] [j] = Aold [i] [j] + Aold [i] [j + 1]從舊的矩陣形成新的矩陣,並且這發生在10倍。我寫了下面的代碼: #include"mpi.h" #include<stdio.h> #include <stdlib.h> int main(int argc, char *argv[]) {

    0熱度

    2回答

    在TBB中,task_scheduler_init()方法通常(而且應該是?)在內部調用,這是一個慎重的設計決策。 但是,如果我們混合使用TBB和MPI,是否保證線程安全,而不控制每個MPI進程的線程數?例如,假設我們有7個內核(沒有超線程)和2個MPI進程。如果每個進程同時使用4個線程產生一個單獨的TBB任務,那麼存在衝突,可能導致程序在運行時崩潰。 我是TBB的新手。 期待您的意見和建議!

    2熱度

    1回答

    我需要在MPI中進行集體通信的allreduce(MPI_Ineighbor_allreduce),遺憾的是它尚未包含在內。 一個明顯的,不是很有效的解決方案是使用MPI_Neighbor_alltoall 以增加緩衝區大小爲代價,你有什麼建議嗎? 有沒有計劃在未來的版本中包含這一點? 感謝

    0熱度

    1回答

    我正在嘗試實現下面的過濾器代碼的MPI,但我在做這件事時遇到困難。它應該如何做?: 過濾代碼: int A[100000][100000]; int B[100000][100000]; for (int i=1; i<(100000 - 1); i++) for (int i=1; j<(100000 - 1); j++) B[i][j] = A[i-1][j] + A[i+1

    0熱度

    1回答

    我一直在試圖瞭解OpenMPI(V2.0.2)中的Segemented Ring Allreduce。但是我沒能弄清楚這個流水線環allreduce,尤其是這些階段如何流水線化。 (即計算階段1(b)似乎同時執行兩個階段而不是「流水線」)。MPI專家是否可以提供此分段環Allreduce背後的動機以及有關流水線的詳細信息? 真的很感激, 利奧

    0熱度

    1回答

    我試圖讓使用共享文件從mpi4py爲logging模塊文件處理程序。但我無法寫出來。 程序: from mpi4py import MPI import io class MPILogFile(object): def __init__(self, comm, filename, mode): self.file_handle = MPI.File.Open(comm,