2016-09-07 104 views
2

我們使用apache zeppelin來分析我們的數據集。我們有一些查詢需要運行,這些查詢會返回大量結果,並希望在zeppelin中運行查詢,但保存結果(顯示限制爲1000)。是否有一種簡單的方法可以讓zeppelin將查詢的所有結果保存到s3桶中?保存/導出Spark SQL Zeppelin查詢的結果

回答

0

我設法掀起一個筆記本,有效地做我想要使用scala解釋器。

z.load("com.databricks:spark-csv_2.10:1.4.0") 
val df= sqlContext.sql(""" 
select * from table 
""") 

df.repartition(1).write 
    .format("com.databricks.spark.csv") 
    .option("header", "true") 
    .save("s3://amazon.bucket.com/csv_output/") 

其值得一提的是,z.load功能似乎對我一天的工作,但後來我又嘗試過了,由於某種原因,我不得不宣佈它在它自己的段落與DEP%解釋,然後在標準斯卡拉解釋器的其餘代碼