openmpi

    1熱度

    2回答

    我對MPI來說有點新,所以如果這是一個微不足道的問題,請原諒我。我有一個四核CPU。我想運行在單個內核上使用兩個進程的OpenMPI C++程序。有沒有辦法做到這一點?如果是這樣,那麼怎麼樣?我提到this link on stack overflow其中,最有可能是,說有可能是一種方式......如果是這樣,那我該怎麼辦呢?

    1熱度

    1回答

    我有一個基本程序,它將線程中的消息發送到每個線程並替換一個字符。我的問題是每個線程中生成的隨機數總是相同的。這裏是我的代碼: if (me+1 == npe) then a = 0 else a = me + 1 end if if (me == 0) then b = npe-1 else b = me-1

    2熱度

    1回答

    我遇到了MPI_Split_comm的問題,這似乎只有在使用openmpi 1.4.3時纔會出現。示例代碼: #include <mpi.h> #include <cassert> #include <vector> const size_t n_test=1000000; class MyComm{ private: MPI_Comm comm; public:

    0熱度

    1回答

    我有一個相當直接的MPI程序,本質上是「初始化,2從主機發送到從機,2從機接收,做一堆系統調用複製/粘貼然後運行代碼,整理和mpi最終確定「。 這看起來很直接,但我沒有讓mpi_finalize正常工作。下面是該程序的快照,沒有我在「do codish stuff」類型語句中彙總的所有系統複製/粘貼/調用外部代碼。 program mpi_finalize_break !<variable de

    5熱度

    1回答

    默認情況下,brew install openmpi使用clang來創建其包裝。 我需要指定gcc-4.9(Homebrew安裝)的包裝。 我已經試過 $export CC=gcc-4.9 $brew install openmpi $brew install --cc=gcc-4.9 openmpi $brew install --with-gcc49 openmpi $brew

    5熱度

    1回答

    我目前正在使用boost :: mpi在openMPI上編寫一個模擬程序,並且一切都很好。但是,一旦我擴大系統,因此必須發送更大的std ::向量,我會得到錯誤。 我已經減少了問題存在如下問題: #include <boost/mpi.hpp> #include <boost/mpi/environment.hpp> #include <boost/mpi/communicator.hpp>

    0熱度

    2回答

    我使用magick ++庫來管理圖像。我想使用openMPI分發我的算法,是否可以發送對象? 例如在我的代碼,我有 Image image(imgName); int w = image.columns(); int h = image.rows(); PixelPacket *pixels = image.getPixels(0, 0, w, h); 我可以發送

    0熱度

    2回答

    我遇到了一個問題,其中mpi_gather只返回我嘗試傳遞的向量的一小部分。請注意,我用np 1運行這個,但它也發生在np 2和np 3上.nat = 3(nat =原子數),並且有194個獨特的對。 要做到這一點,我在FORTRAN兩個派生的數據類型: type dtlrdh_lut sequence integer p integer q integer

    0熱度

    1回答

    每當我嘗試編譯openfoam求解器,我得到的錯誤: /usr/bin/ld: warning: libmpi.so.0, needed by /opt/openfoam211/platforms/linux64GccDPOpt/lib/openmpi-system/libPstream.so, not found (try using -rpath or -rpath-link) /usr/b

    0熱度

    1回答

    我正在運行HPC基準測試(IOR - http://sourceforge.net/projects/ior-sio/)。我編譯了IOR的源代碼並使用openmpi 1.5.3運行它。 問題是,當進程數(-np)小於6時,它會掛起,這是奇數。刪除所有其他的事情我周圍的人,我運行的實際命令歸結爲: /usr/lib64/openmpi/bin/mpirun --machinefile mpi_hos