我正在使用Spark 2.0 Scala。我可以使用toDF()方法將RDD轉換爲DataFrame。Spark 2.0 Scala - RDD.toDF()
val rdd = sc.textFile("/pathtologfile/logfile.txt")
val df = rdd.toDF()
但是對於我的生活,我無法找到API文檔中的位置。它不在RDD下。但它在DataSet下(link 1)。不過,我有一個RDD不是數據集。 (link 2)。
所以請幫我理解爲什麼toDF()可以爲我的RDD調用。這種方法從哪裏繼承?
你從哪兒打電話呢?火花的殼呢? –
是的。只需使用本地Spark設置並運行我的scala腳本,即可使用 - ./bin/spark-shell --master local [2] -i /pathtomyscale/myfile.scala – Carl