我試圖在本地構建Apache Spark。這樣做的原因是調試類似reduce的Spark方法。我特別感興趣的是Spark在執行和分發Map Reduce時遇到性能問題,我認爲從源代碼運行這些任務是找出問題的最佳方法。如何在本地構建和運行Scala Spark
所以我已經克隆了星火回購最新:
git clone https://github.com/apache/spark.git
星火似乎是一個Maven項目,所以當我在Eclipse中創建在這裏的結構是:
一些頂級文件夾也有pom文件:
所以我應該只是建立這些子項目之一?這些正確的步驟是否針對本地代碼庫運行Spark?
要查看Spark內部函數,只需要'core'。這應該讓你在那裏:http://syndeticlogic.net/?p=311順便說一下,SBT更好地讓Spark啓動並運行。我也建議你使用Intellij代替Eclipse。 – maasg