0
在Spark SqlContext中覆蓋表的建議方法是什麼? 可以直接撥打在Spark SqlContext中覆蓋表
modified_df.registerTempTable("same_table_name")
沒有在sqlContext中刪除表嗎?
在Spark SqlContext中覆蓋表的建議方法是什麼? 可以直接撥打在Spark SqlContext中覆蓋表
modified_df.registerTempTable("same_table_name")
沒有在sqlContext中刪除表嗎?
最好的做法很可能是明確放棄表格以避免混淆。但是,上面的代碼將按照您的預期覆蓋表格。
我同意但是這是萬一你使用的是正規的RDMS。使用Spark,你不需要開銷。如果存在,registerTempTable意味着丟棄。 – eliasah