0
我工作的Spark 2.1應用程序也使用SparkSQL並使用dataframe.write.saveAsTable(tbl)
保存數據。我的理解是,內存中的Derby DB用於Hive Metastore(右?)。這意味着我在第一次執行時創建的表在任何後續執行中都不可用。在許多情況下,這可能是預期的行爲 - 但我想堅持執行過程中的Metastore(因爲這也是我在生產系統中的行爲)。運行Spark應用程序:堅持Metastore
所以,一個簡單的問題:我該如何改變配置來保持光盤上的metastore?
一句話:我沒有使用spark-shell或spark-submit啓動Spark作業,而是作爲獨立的Scala應用程序啓動。
這個答案看起來還沒有完成,並且存在着標記的高風險。我會建議你稍微擴展一下,或許用一些引用或網站中的一些引用來加以說明,並幫助證明你的答案。至少,不要用逗號結束答案。 :) – Jonathan
我可以確認答案 - 但我想提一提的是,在創建Spark會話時需要包含.enableHiveSupport()。只有這樣Metastore纔會持續下去。 – Daniel