metastore

    0熱度

    1回答

    最近我們遇到了問題,如標題中描述的每月一次。在metastore節點上,我們安裝並啓動了ntpd服務以與kerberos服務器同步時間。該節點上的krb5.conf的看起來像這樣: [libdefaults] default_realm = EXAMPLE.COM dns_lookup_realm =真 dns_lookup_kdc =真 ticket_lifetime = 24小時 renew_

    0熱度

    1回答

    誰知道爲什麼HiveConf現在沒有HADOOPCONF枚舉類型hive-common jar? 我使用hive-common-1.2.1.jar編寫代碼HiveConf類來訪問HDFS(HA namenode),我在下面得到一個錯誤。 我意識到我的代碼沒有配置HADOOPCONF因此它不能連接到HDFS,但在蜂房共1.2.1.jar沒有任何HADOOPCONF多,我發現以前的版本蜂巢常見的有HA

    4熱度

    1回答

    序言:我是hadoop/hive的新手。已經安裝了獨立的hadoop,現在正試圖讓蜂巢工作。我不斷收到有關初始化Metastore的錯誤,似乎無法弄清楚如何解決。 (2.7.2 Hadoop的蜂房和2.0) HADOOP_HOME AND HIVE_HOME設置 ubuntu15-laptop: ~ $>echo $HADOOP_HOME /usr/hadoop/hadoop-2.7.2 u

    0熱度

    1回答

    我正在使用Apache spark-sql查詢數據庫中的數據。我知道Spark默認情況下共享同一個配置單元格。我已經根據具有超過300k個不同值的列ID對輸入數據進行分區。截至目前,該表有超過30萬個分區,並且會週期性增加。 由此產生了什麼問題嗎?

    0熱度

    3回答

    我想要使用java中的metastore客戶端獲取表格屬性,如表格數據庫,名稱,所有者和hdfs位置。我想我可以獲取表格數據庫和名稱,但我無法弄清楚如何獲取所有者和hdfs位置等內容。可能嗎?我一直在搜索文檔和互聯網幾個小時,現在沒有骰子。

    0熱度

    1回答

    爲了通過Apache Drill訪問配置單元,我已經將Metastore作爲服務啓動。 爲了使用它作爲在蜂巢-site.xml中一個metastore,我有hive.metastore.uris參數設置爲節儉://本地主機:9083。 的metastore服務創建後,我試圖查看databases.It只顯示了兩個數據庫,而不是4作爲起始蜂巢作爲服務之前創建的。 也沒有顯示之前創建的幾個表。 當我在

    0熱度

    1回答

    我想使用h2而不是Derby作爲本地單元測試的Hive Metastore DB,它在本地模式下運行Apache Spark。 hiveContext.set("javax.jdo.option.ConnectionURL", connectionUrl)設置不起作用導致配置單元上下文被初始化(以及Metastore db)。 設置爲SparkConf也不起作用。你可以幫幫我嗎?

    0熱度

    1回答

    我知道這個問題有點奇怪。我喜歡Hadoop & HDFS,但最近與Hive Metastore合作開發SparkSQL。 我想使用SparkSQL作爲垂直SQL引擎來運行不同數據源(如RDB,Mongo,Elastic ...)上的OLAP查詢,而不需要ETL過程。然後我在Metastore中使用相應的Hive存儲處理程序將不同的模式註冊爲外部表。 此外,在我的工作中HDFS不被用作數據源。然後,

    0熱度

    1回答

    我想創建一個蜂巢表的索引並收到錯誤: FAILED: Error in acquiring locks: Lock acquisition for LockRequest(component:[LockComponent(type:EXCLUSIVE, level:PARTITION, dbname:, tablename:jobs_indx_jobs_title, partitionname:y

    0熱度

    1回答

    我一直在使用derby作爲配置單元存在一段時間。 有沒有辦法將metastore遷移到Postgresql。 我使用Apache蜂巢 - 0.13