2016-04-12 95 views
0

在Spark SqlContext中覆蓋表的建議方法是什麼? 可以直接撥打在Spark SqlContext中覆蓋表

modified_df.registerTempTable("same_table_name") 

沒有在sqlContext中刪除表嗎?

回答

0

最好的做法很可能是明確放棄表格以避免混淆。但是,上面的代碼將按照您的預期覆蓋表格。

+0

我同意但是這是萬一你使用的是正規的RDMS。使用Spark,你不需要開銷。如果存在,registerTempTable意味着丟棄。 – eliasah