6
從我運行的實驗中,似乎TensorFlow會自動使用一臺機器上的所有CPU。此外,TensorFlow似乎將所有CPU都稱爲/ cpu:0。TensorFlow是否將一臺機器的所有CPU視爲一個設備?
我說得對,只有一臺機器的不同的GPU獲得索引並作爲獨立的設備上查看,但所有的一臺機器的CPU上得到視爲一個單一的設備?
有什麼辦法讓機器可以有多個CPU從TensorFlows的角度來看它嗎?
從我運行的實驗中,似乎TensorFlow會自動使用一臺機器上的所有CPU。此外,TensorFlow似乎將所有CPU都稱爲/ cpu:0。TensorFlow是否將一臺機器的所有CPU視爲一個設備?
我說得對,只有一臺機器的不同的GPU獲得索引並作爲獨立的設備上查看,但所有的一臺機器的CPU上得到視爲一個單一的設備?
有什麼辦法讓機器可以有多個CPU從TensorFlows的角度來看它嗎?
默認情況下,該進程可用的所有CPU都彙總在cpu:0
設備下。
有由mrry here展示瞭如何創建邏輯設備,如/cpu:1
答案,/cpu:2
似乎沒有奏效功能邏輯器件引腳到特定的物理內核或能在tensorflow使用NUMA節點。
一種可能的解決辦法是在一臺機器上使用分佈式TensorFlow與多個進程和Linux上使用taskset
到特定的進程引腳到特定的核