有時候,NVIDIA推出了利用其GRID GPU的vGPU概念,其中物理GPU被虛擬化爲多個vGPU,每個vGPU都分配給訪客VM。 儘管GRID文檔在內存分割上非常清晰,但不清楚源自guestVM的內核是如何在主硬件上執行的。其中一個表(表1)中的網格數據表提到了CUDA Cores(時間片共享)。這是否意味着來自一個訪客VM的CUDA內核捕獲整個GPU的時間片,然後是其他VM的內核?來自NVIDIA GRID客戶VM的CUDA內核的行爲vGPU
2
A
回答
2
目前,從VM發起CUDA運算是使用網格的vGPU是不可能有一個例外。
如果正在使用的GRID(2.0)配置文件是將整個物理GPU映射到單個VM的配置文件,那麼CUDA操作在該情況下是可能的。在這種情況下,一般的CUDA行爲應該與裸機操作類似。
目前,這樣的行爲確實涉及圖形操作和CUDA操作,如在裸金屬場景目睹了相同的行爲之間的時間分片(「上下文切換」)。
這可能會在未來發生變化。
請注意,這裏的「物理GPU」是指完整的邏輯GPU設備。甲特斯拉M60,例如具有板載兩個這樣的「物理的GPU」(每個具有8GB的內存),因此可以支持兩個這樣的虛擬機,其中所選擇的GRID輪廓決定了整個物理GPU被映射到單個VM 。
這種行爲的參考,可以發現here「 8GB的個人資料」
然而,應該指出的是,有一定的侷限性這裏,與NVIDIA指出,CUDA的vGPU支持需要使用網格2.0
相關問題
- 1. Cuda內核代碼位於NVIDIA GPU上?
- 2. CUDA - 來自內核的事件
- 3. CUDA內核調用來自內循環
- 4. CUDA內核的並行性
- 5. CUDA內核的奇怪行爲
- 6. 並行化來自CUDA設備函數/內核的方法
- 7. 內核中的CUDA分析
- 8. 客戶端VM未內聯?
- 9. 從cuda內核打印
- 10. NVidia CUDA:緩存L2和多個內核調用
- 11. 執行CUDA內核幾次
- 12. 定時並行CUDA內核
- 13. 學習Nvidia CUDA
- 14. CUDA並行內核執行,每個流有多個內核
- 15. 在CUDA內核
- 16. 我需要爲OpenCL安裝Nvidia的SDK(CUDA)來檢測Nvidia GPU嗎?
- 17. CUDA上的定時內核執行
- 18. CUDA內核中的STD類
- 19. 來自fortran的調用cuda c內核90
- 20. 內核中的CUDA QuickSort RECALL
- 21. CUDA內核執行的內存要求是什麼?
- 22. NVIDIA GPU的CUDA內核與OpenCL計算單元之間的關係如何?
- 23. 如何對來自Nvidia CUDA GPU卡的多個指標進行編碼?
- 24. 調試CUDA內核
- 25. NVIDIA CUDA 4.0,頁面鎖定帶運行時間的內存API
- 26. NVIDIA Cuda if語句
- 27. CUDA 2D陣列nvidia
- 28. Nvidia cuda與位圖
- 29. 使用CUDA內核
- 30. 內核中的CUDA流ID
非常感謝您的澄清。 – nano