2015-05-16 29 views
1

我已經使用命令CREATE DATABASE FIRST_DB;在HIVE中創建了一個數據庫並創建了一個數據庫。HIVE數據庫不存在SemanticException 10072

然後我創建了一些表格,它正在工作中查找。名爲FIRST_DB.db的目錄是在我的hdfs倉庫位置創建的。然後我放棄了我的HIVE外殼。

第二天,當我開始我的HIVE並嘗試使用命令USE FIRST_DB;然後它給了一個錯誤連接:

SemanticException [error 10072] :database does not exist FIRST_DB

但是當我住進我的HDFS的FIRST_DB.db存在並根據該表還當下。即使在我退出HIVE會議後,請幫助我永久設置此數據庫。讓我知道是否有任何配置我錯過了。

回答

1

你可以檢查你的hive.metastore.uris變量。可能是hive會話正在使用您的德比Metastore,這是默認在本地目錄中創建的,而不是使用共享Metastore。

看起來問題出在您的配置(Hive Metastore)上。你可以檢查是否設置爲"embedded" or "Remote Metastore"。嵌入是默認的,因此請嘗試將其更改爲「Remote Metastore」。

0

@stacey感謝您的幫助。我通過創建一個同名的新數據庫FIRST_DB解決了這個問題,之後立即使用SHOW TABLES命令不顯示舊錶,所以我重新啓動了我的配置單元,hadoop和Ubuntu機器。重新啓動後,它能夠連接到我的舊數據庫並引用舊錶數據。

1

確保hive-site.conf位於spark config目錄中。 我使用配置單元命令行檢查,一切正常,但同樣的事情從spark-shell中的sqlContext失敗。原來在spark config文件夾中沒有hive-site.conf。

不得不創建一個符號鏈接,請注意文件夾的位置可能會在您的情況下不同。這裏

sudo ln -s /etc/hive/conf.dist/hive-site.xml /etc/spark/conf.dist/hive-site.xml 

的聯繫是我https://community.cloudera.com/t5/Advanced-Analytics-Apache-Spark/how-to-access-the-hive-tables-from-spark-shell/td-p/36609

有幫助
相關問題