我想將我的Parquet文件轉換爲CSV。 有沒有一種方法,因爲我只能找到CSV到Parquet文件,而不是相反。實木複合地板文件到CSV轉換
2
A
回答
0
DataFrame df = sqlContext.parquetFile("parquet path");
df.javaRDD().saveAsTextFile("outputpath");
0
這對我使用spark 2.1.0時有效。首先運行火花外殼。喜歡的東西:
./bin/spark-shell
則:
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val df = sqlContext.parquetFile("parquet-file.parquet")
df.printSchema()
df.write.format("csv").save("directory")
將在directory
0
創建CSV文件將使用Spark和簡單的Python:
for filename in glob.glob("[location_of_parquet_file]/*.snappy.parquet"):
print filename
df = sqlContext.read.parquet(filename)
df.write.csv("[destination]")
print "csv generated"
0
這個工作對我在火花上
spark-shell --packages com.databricks:spark-csv_2.11:1.2.0
val df = sqlContext.parquetFile("/hdfs/source.parquet")
df.printSchema()
df.write.format("com.databricks.spark.csv").save("/hdfs/target_csv")
相關問題
- 1. Databricks實木複合地板轉換
- 2. Impala +實木複合地板文件
- 3. 將文本轉換爲實木複合地板
- 4. 將JSON文檔轉換爲實木複合地板
- 5. 如何將實木複合地板文件轉換爲Avro文件?
- 6. Pyspark:寫入csv寫入實木複合地板而不是csv
- 7. Flink轉換爲實木複合地板錯誤
- 8. 從Java對象到實木複合地板文件
- 9. 無法將json文件轉換爲使用spark的實木複合地板
- 10. 本地火花和實木複合地板的文件
- 11. csv是否使用pyspark分發的實木複合地板?
- 12. 實木複合地板數據集
- 13. 在java中寫實木複合地板
- 14. AWS EMR寫入KMS加密S3實木複合地板文件
- 15. IgniteRdd的savepairs讀取實木複合地板文件的方法
- 16. 實木複合地板分區和HDFS文件大小
- 17. 如何將GroupedDataset保存爲實木複合地板或將其轉換爲DF
- 18. Python:將熊貓數據框保存到實木複合地板文件
- 19. 如何將實木複合地板文件加載到配置單元表
- 20. Spark Streaming - 將實木複合地板文件上傳到S3錯誤
- 21. 如何將數據追加到現有的實木複合地板文件
- 22. 如何將scipy稀疏矩陣保存到實木複合地板文件中
- 23. 如何將RDD保存到單個實木複合地板文件?
- 24. 汽車實木複合地板到蜂巢
- 25. 從AWS Kinesis fireshose寫入實木複合地板到AWS S3
- 26. 使用python直接寫入實木複合地板到HDFS
- 27. 實木複合地板和數據複製
- 28. 實木複合地板搭建HDFS getmerge恢復
- 29. 使用presto查詢本地實木複合地板
- 30. 分裂一個大木文件分成多個文件,實木複合地板用鑰匙
您使用Spark?如果請請使用好的標籤(apache-spark)。 – mauriciojost
您能否提供您想要的代碼示例? – mauriciojost
請參閱http://stackoverflow.com/questions/39419975/how-to-copy-and-convert-parquet-files-to-csv –