2015-10-06 96 views
2

我想將我的Parquet文件轉換爲CSV。 有沒有一種方法,因爲我只能找到CSV到Parquet文件,而不是相反。實木複合地板文件到CSV轉換

+0

您使用Spark?如果請請使用好的標籤(apache-spark)。 – mauriciojost

+0

您能否提供您想要的代碼示例? – mauriciojost

+0

請參閱http://stackoverflow.com/questions/39419975/how-to-copy-and-convert-parquet-files-to-csv –

回答

0
DataFrame df = sqlContext.parquetFile("parquet path"); 


    df.javaRDD().saveAsTextFile("outputpath"); 
0

這對我使用spark 2.1.0時有效。首先運行火花外殼。喜歡的東西:

./bin/spark-shell 

則:

val sqlContext = new org.apache.spark.sql.SQLContext(sc) 
val df = sqlContext.parquetFile("parquet-file.parquet") 
df.printSchema() 
df.write.format("csv").save("directory") 

將在directory

0

創建CSV文件將使用Spark和簡單的Python:

for filename in glob.glob("[location_of_parquet_file]/*.snappy.parquet"): 
     print filename 
     df = sqlContext.read.parquet(filename) 
     df.write.csv("[destination]") 
     print "csv generated" 
0

這個工作對我在火花上

spark-shell --packages com.databricks:spark-csv_2.11:1.2.0 
val df = sqlContext.parquetFile("/hdfs/source.parquet") 
df.printSchema() 
df.write.format("com.databricks.spark.csv").save("/hdfs/target_csv") 
相關問題