2016-03-02 67 views
2

有時候,NVIDIA推出了利用其GRID GPU的vGPU概念,其中物理GPU被虛擬化爲多個vGPU,每個vGPU都分配給訪客VM。 儘管GRID文檔在內存分割上非常清晰,但不清楚源自guestVM的內核是如何在主硬件上執行的。其中一個表(表1)中的網格數據表提到了CUDA Cores(時間片共享)。這是否意味着來自一個訪客VM的CUDA內核捕獲整個GPU的時間片,然後是其他VM的內核?來自NVIDIA GRID客戶VM的CUDA內核的行爲vGPU

參考GRID數據表:http://images.nvidia.com/content/pdf/grid/whitepaper/NVIDIA-GRID-WHITEPAPER-vGPU-Delivering-Scalable-Graphics-Rich-Virtual-Desktops.pdf

回答

2

目前,從VM發起CUDA運算是使用網格的vGPU是不可能有一個例外。

如果正在使用的GRID(2.0)配置文件是將整個物理GPU映射到單個VM的配置文件,那麼CUDA操作在該情況下是可能的。在這種情況下,一般的CUDA行爲應該與裸機操作類似。

目前,這樣的行爲確實涉及圖形操作和CUDA操作,如在裸金屬場景目睹了相同的行爲之間的時間分片(「上下文切換」)。

這可能會在未來發生變化。

請注意,這裏的「物理GPU」是指完整的邏輯GPU設備。甲特斯拉M60,例如具有板載兩個這樣的「物理的GPU」(每個具有8GB的內存),因此可以支持兩個這樣的虛擬機,其中所選擇的GRID輪廓決定了整個物理GPU被映射到單個VM 。

這種行爲的參考,可以發現here「 8GB的個人資料」

然而,應該指出的是,有一定的侷限性這裏,與NVIDIA指出,CUDA的vGPU支持需要使用網格2.0

+0

非常感謝您的澄清。 – nano