2
我們使用apache zeppelin來分析我們的數據集。我們有一些查詢需要運行,這些查詢會返回大量結果,並希望在zeppelin中運行查詢,但保存結果(顯示限制爲1000)。是否有一種簡單的方法可以讓zeppelin將查詢的所有結果保存到s3桶中?保存/導出Spark SQL Zeppelin查詢的結果
我們使用apache zeppelin來分析我們的數據集。我們有一些查詢需要運行,這些查詢會返回大量結果,並希望在zeppelin中運行查詢,但保存結果(顯示限制爲1000)。是否有一種簡單的方法可以讓zeppelin將查詢的所有結果保存到s3桶中?保存/導出Spark SQL Zeppelin查詢的結果
我設法掀起一個筆記本,有效地做我想要使用scala解釋器。
z.load("com.databricks:spark-csv_2.10:1.4.0")
val df= sqlContext.sql("""
select * from table
""")
df.repartition(1).write
.format("com.databricks.spark.csv")
.option("header", "true")
.save("s3://amazon.bucket.com/csv_output/")
其值得一提的是,z.load功能似乎對我一天的工作,但後來我又嘗試過了,由於某種原因,我不得不宣佈它在它自己的段落與DEP%解釋,然後在標準斯卡拉解釋器的其餘代碼