我試圖使用Mesos將Apache Spark連接到MongoDB。這裏是我的架構: -通過Mesos發送給MongoDB
MongoDB:MongoDB 2個碎片,1個配置服務器和1個查詢服務器的集羣。 Mesh:1 Mesos Master,4 Mesos Slaves
現在我已經在1個節點上安裝了Spark。那裏沒有太多可用的信息。我只是想提出幾個問題: -
據我所知,我可以通過mesos連接Spark到MongoDB。換句話說,我最終將MongoDB用作存儲層。我真的需要Hadoop嗎?是否必須將所有數據都拉入Hadoop中才能讀取Spark?
這是我問這個問題的原因。 Spark安裝期望設置HADOOP_HOME變量。這似乎是非常緊密的耦合!網上的大多數帖子都講述了MongoDB-Hadoop連接器。如果你迫使我把所有東西都搬到hadoop,這沒有任何意義。
有沒有人有答案?
問候 馬里奧
謝謝羅斯。但是,正如Youe上面提到的,Spark希望在安裝時設置HADOOP_HOME變量!這清楚地表明,它與Hadoop綁定在一起,不管他們對Spark的看法是獨立的。 – Mario