2016-08-12 34 views
0

大家好,我可以解釋一下,Apache的Spark Standalone需要HDFS嗎?對HDFS的Spark需求

如果需要在Spark應用程序執行期間Spark如何使用HDFS塊大小。 我的意思是試圖理解Spark應用程序執行期間HDFS角色是什麼。

Spark文檔說處理並行性是通過RDD分區和執行程序/內核來控制的。

任何人都可以請幫我理解。

回答

0

如果不使用HDFS,Spark可以毫無問題地工作,而且肯定不需要核心執行。

一些分佈式存儲(不一定是HDFS)是檢查點定位所必需的,對於保存結果很有用。