3
A
回答
2
Dataframe API是非類型化的API,因爲只有在運行時才能知道類型。數據集API是類型化的API,在編譯期間將知道類型。
df.select("device").where("signal > 10") // using untyped APIs
ds.filter(_.signal > 10).map(_.device) // using typed APIs
相關問題
- 1. 異步填充強類型數據集
- 2. 批量更新強類型數據集?
- 3. 強類型數據集拋出CastException
- 4. 強類型數據集的序列化
- 5. 強類型數據集 - XML序列化
- 6. LINQ - 用的SelectMany強類型數據集
- 7. 強類型數據集和System.Data.DataRowBuilder?
- 8. 強類型數據集:覆蓋列get:set
- 9. 使用強類型數據集更新ASP.Net/VB.Net數據庫
- 10. 從本地Sql Compact數據庫更新強類型數據集
- 11. 如何將數據插入強類型數據集?
- 12. Spark 2.0數據集vs DataFrame
- 13. Jdbc數據類型爲Spark SQL數據類型
- 14. 強類型數據的ViewPage
- 15. 強制數據類型
- 16. 強類型ASP.NET MVC中的數據集模型綁定
- 17. Dapper強類型集合類型
- 18. 用於行類型Spark數據集的編碼器
- 19. xml和使用數據集設計器的強類型數據集
- 20. RegisterTempTable使用數據集Spark Java
- 21. VB.NET強類型集合
- 22. 類型化數據集和非類型化數據集
- 23. 強類型DataSet
- 24. Apache Spark SQL BLOB數據類型
- 25. Storm和Spark支持的數據類型
- 26. MongoDB Spark衝突數據類型
- 27. Spark:不支持變體數據類型
- 28. 誰會更好地構建數據層強類型化數據集或類
- 29. 強類型數據綁定和泛型?
- 30. 將spark數據幀數據類型映射到jdbc數據類型
任何人都可以請回答這個問題。 –
鏈接解釋了數據集和數據框之間的差異。 http://stackoverflow.com/questions/31508083/difference-between-dataframe-and-rdd-in-spark/39033308?noredirect=1#comment68807827_39033308 –