2
由於很多機器學習算法依賴於矩陣乘法(或至少可以使用矩陣乘法來實現)來測試我的GPU是我計劃建立矩陣A,B,它們相乘並記錄花費的時間爲了計算完成。測試GPU與tensorflow矩陣乘法
這裏是代碼,會生成尺寸300000,20000的兩個矩陣和繁殖他們:
import tensorflow as tf
import numpy as np
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
#a = np.array([[1, 2, 3], [4, 5, 6]])
#b = np.array([1, 2, 3])
a = np.random.rand(300000,20000)
b = np.random.rand(300000,20000)
println("Init complete");
result = tf.mul(a , b)
v = sess.run(result)
print(v)
這是一個足夠的測試來比較GPU的性能?我應該考慮哪些其他因素?
很酷,我認爲應該將您的代碼發佈到您的答案中,除了引用代碼外。未發現除非'os.environ [ 「CUDA_VISIBLE_DEVICES」] = –
GPU 「1」'被註釋。與Windows 10的作品,tensorflow-GPU(1.4),cuda_8.0.61_win10和cudnn-8.0-windows10-64-V6.0。 – BSalita
錯誤是'不能分配操作「Variable_1」的設備:操作被明確指定爲/設備:GPU:0,但可用的設備[/職業:本地主機/副本:0 /任務:0 /設備:CPU:0]。確保設備規格指的是有效device.' – BSalita