2014-01-13 76 views

回答

0

spark-shell(使用scala)/ pyspark是用於超高速集羣計算。

這一切都取決於集羣的大小,特別是要分配給每個工人的SPARK_WORKER_MEMORY。

如果您的數據更適合內存,spark會有效地使用DISK(以及內存)。

希望這有助於:)

+0

+根據您的要求選擇RDD持久性存儲級別 –

相關問題