0
我想知道我安裝的Spark版本是如何依賴於我使用的spark-core(spark-sql,...)庫的版本。Apache Spark的更新策略
例如:我從Spark 2看到,推薦使用DataFrame API(來自spark.ml)而不是RDD(來自spark.mllib)。我是否必須更新已安裝的Spark版本才能使用它,還是足夠使用新庫?
如何依賴已安裝的Spark版本庫?哪個庫版本適合火花安裝?
對不起,但這讓我困惑。
@drstein:謝謝你的提示。 zero323在我的問題上評論了這一點,我儘管我必須清楚地寫下來,以供其他用戶使用。我更新了我的帖子。非常感謝你。 – chresse