infiniband

    0熱度

    1回答

    比方說,我有2間RoCEv2交通節點A & B. A使用RDMA_SEND的命令膠囊發送至B. 則A從B接收膠囊(B也使用RDMA_SEND)。此時,A如何知道這是否是對步驟1中發送的命令的響應,或者這是否是來自B的新命令包?你知道,解碼將在命令和響應之間完全不同。 謝謝。

    0熱度

    1回答

    我不明白爲什麼英特爾MPI使用DAPL,如果本機ibver比DAPL快,OpenMPI將使用本機ibverbs。然而,在這個基準測試中,英特爾MPI實現了更好的性能。 http://www.hpcadvisorycouncil.com/pdf/AMBER_Analysis_and_Profiling_Intel_E5_2680.pdf

    0熱度

    1回答

    您好目前我正在使用Infiniband測試IMB基準測試的性能,目前我正在測試並行傳輸測試 並且想知道結果的確反映了8的並行性能流程。 對結果的解釋太模糊了,我不明白。 因爲每個結果都提到了(在MPI_Barrier中等待的6個額外進程),我懷疑它每個只運行2個進程? 吞吐量列t_avg [usec]結果似乎得到了正確的結果,但我需要確保我正確理解。 #----------------------

    0熱度

    1回答

    我正在嘗試啓動一個具有Infiniband支持的FreeBSD 11.0服務器。從我所知道的FreeBSD 11.0已經有了這個支持。但是我沒有看到任何可用於運行iWARP流量的ibv相關命令。 任何人都可以建議我該怎麼辦?

    2熱度

    1回答

    是否可以在GPU與遠程主機之間執行RDMA操作? Nvidia網站上的在線文檔只談到了在GPU之間做RDMA,並沒有提到在GPU主機之間做這件事的可能性。 注意:我有權訪問配備K80 GPU和Mellanox NIC的羣集。

    0熱度

    1回答

    我嘗試設置GPUDirect以直接在設備內存上使用infiniband動詞rdma調用,而無需使用cudaMemcpy。 我有兩臺nvidia k80 gpu卡,每個驅動程序版本爲367.27。 CUDA8安裝和Mellanox的OFED 3.4 還安裝了Mellanox公司 - 英偉達GPUDirect插件: -bash-4.2$ service nv_peer_mem status nv_p

    0熱度

    1回答

    我在具有10G以太網和QDR Infiniband的集羣上使用Apache Ignite。我希望Ignite使用IP over Infiniband(IPoIB)來獲得最佳的網絡性能。爲此,我已將IB連接的IP地址放入Ignite配置文件中。 <bean class="org.apache.ignite.spi.discovery.tcp.ipfinder.vm.TcpDiscoveryVmIpF

    0熱度

    2回答

    我是rdma編程新手,目前正在使用ib動詞和rdma cma設置一個簡單的客戶端/服務器,但已經遇到困難。我的服務器運行並等待連接,但我的客戶端從不連接,因爲它在rdma_create_qp()失敗。我不知道,可能需要什麼樣的信息來幫助解決這個問題,但我會的要求所需要的信息進行編輯。(目前snipets的相關信息,因爲他們出現在我的代碼) qp_init_attr.send_cq = cq; q

    0熱度

    1回答

    儘管2.3版本的mvapich不贊成Nemesis接口,但現在有什麼辦法可以一次配置Infiniband支持,並在故障時回退到TCP?或者我必須爲我的網格中的不同網絡設置進行兩次編譯?

    0熱度

    1回答

    我試圖使用內存窗口和我得到EPERM(錯誤= 1)調用ibv_alloc_mw(兩種類型兆瓦)的時候。 我有Mellanox公司的ConnectX-3卡及以下OFED: ofed_info | head -n 1 MLNX_OFED_LINUX-3.2-2.0.0.0 (OFED-3.2-2.0.0): 看來我的卡應該支持這種能力: ibv_devinfo -v | grep EXP_MW