我正在做A.I的博士研究。我已經到了必須開始爲我的測試平臺使用CUDA庫的部分。 我以前玩過CUDA,並且對GPGPU的工作原理有了基本的瞭解,但是我對浮點精度感到困擾。用於研究目的的nVidia GPUs:浮點精度
看看GTX680我看到FP64:1/24 FP32,而特斯拉有完整的FP64 1.31 TFLOPS。我非常清楚一個是遊戲卡,另一個是專業卡。
我問的原因很簡單:我買不起特斯拉,但我可能會得到兩個GTX680。雖然主要目標是擁有儘可能多的CUDA內核和內存,但浮點精度可能會成爲問題。
我的問題是:
- 怎樣的妥協中有多少是在遊戲GPU的小float精度?
- 是不是32位浮點精度的1/24太小?特別是與之前1/8的費米相比FP32
- 由於浮點精度較小,是否存在計算結果錯誤的風險?即在SVM,VSM,矩陣操作,深信仰網絡等方面,我是否可能因浮點數較小而導致算法結果出現問題,還是僅僅意味着操作需要更長時間/使用更多內存?
謝謝!
這些意見徵求問題通常不適合用於計算器。在你的問題得到解決之前,讓我說出我的觀點:如果你買得起兩臺GTX 680,你也可以購買一臺GTX Titan,你可以獲得本機的FP64速度(如特斯拉的1/3 FP32)。這可以爲您節省多GPU編程的痛苦(除非您想學習這些)。它甚至接近兩個GTX 680的FP32速度,並具有計算能力3.5的其他優點,如每個線程最多255個寄存器。 – tera
@tera謝謝,這更有意義。我發佈後正在看泰坦的1/3 F32。不,我不想進入多GPU編程,只需導入cuda庫。 –