0
它理解Spark和hadoop的不同版本之間的版本兼容性時會感到困惑。對於Hadoop和配置單元也是如此。是否存在Spark,hadoop和配置單元的兼容性映射
是否有任何可以遵循的表來知道哪個版本與哪個版本兼容?
它理解Spark和hadoop的不同版本之間的版本兼容性時會感到困惑。對於Hadoop和配置單元也是如此。是否存在Spark,hadoop和配置單元的兼容性映射
是否有任何可以遵循的表來知道哪個版本與哪個版本兼容?
Spark與其他庫的持續兼容性如何?目前我使用Spark 2.2並且無法使用Hadoop 2.8.1將一些數據保存到Spark的Azure blob存儲中。早先提供圖表的參考@ cricket_007 –
的下載頁面上的預建星火包裝明確地說:「Hadoop的2.6及更高」,所以那裏有什麼困惑的兼容性圖表?可能與Hive相同,但Hortonworks的「蘆筍圖」是他們正式支持的內容。 http://hortonworks.com/wp-content/uploads/2016/03/asparagus-chart-hdp24.png –
@ cricket_007感謝您的回覆。這很有幫助。我將添加您提供的圖表作爲我的問題的答案。再次感謝。 –
雖然這不是一個兼容性圖表,但每個版本的HDP使用的是什麼 –