我目前正在爲JAVA中的Spark開發,在發佈到我們的Amazon集羣之前,我使用Spark在本地測試我的代碼。我的問題是如果有任何解決方案來利用我的GPU?目前我可以通過分配我的CPU的多個內核,或者將更多的RAM設置在sparkConf.set("spark.executor.memory", "8g");
或--driver-memory 4g
開關的執行器和驅動程序旁邊。但顯然使用GPU進行計算任務是非常有效的。有沒有辦法讓我的本地運行Spark使用我的GPU? CUDA似乎是流行語,但我無法找到關於如何爲Spark設置的任何內容。Apache Spark - 本地優化和利用CUDA GPU
另外,什麼是RAM分配的最佳設置?我有16GB可用,我應該分配給驅動程序多少以及執行多少?
你有關於優化本地Spark的更多提示嗎?
謝謝!
太棒了!謝謝!你知道關於最佳RAM分配的一切嗎?我想知道司機或執行者是否需要更多。 –
另外,有沒有辦法讓我的SparkCL在Windows下運行?如果我只是在Windows上獲得Git,按照指示克隆這些東西並開始運行(目錄已更改),它會運行嗎? –
SparkCL有一個視頻教程,它們在Windows機器上執行https://www.youtube.com/watch?v=Na6GeOttZhA&index=5&list=PLOJY6HSc6DWnpPSmLKmr4GzkRv11QjdXw。我使用OSx和Ubuntu。這些說明也工作得很好。 –