2016-08-05 201 views
0

我已經在我的本地機器上使用python進行分析。火花集羣是什麼意思?

最近我聽到「spark cluster」這個詞,我想知道它到底是什麼嗎?

它只是Spark在某些機器集羣上運行?

如何在沒有Hadoop系統的情況下使用羣集?可能嗎?你能描述一下嗎?

+0

機器集羣,是的。我相當肯定[文檔](https://spark.apache.org/docs/latest/cluster-overview.html)可以回答你的問題。 –

回答

1

Apache spark是一個分佈式計算系統。雖然它可以在單臺機器上運行,但它可以運行在羣集上,並利用羣集可能的並行性。 Spark利用了很多Hadoop堆棧,例如HDFS文件系統。但是,Spark與Hadoop分佈式計算鏈顯着重疊。以地圖爲中心的Hadoop減少了編程模式,而Spark在程序設計方面則更加普遍。此外,Spark還具有幫助提高性能的功能。

欲瞭解更多信息,請參閱https://www.xplenty.com/blog/2014/11/apache-spark-vs-hadoop-mapreduce/

+0

我只是想澄清一下,Spark不會以任何方式替換Hadoop。它可以在Hadoop之上工作,也可以與Hadoop分開。 –

+0

我將編輯更正。謝謝。 –