在RedHat測試服務器上,我安裝了hadoop 2.7,我跑了Hive,Pig & Spark沒有問題。但是當試圖從Spark訪問Hive的Metastore時,我得到了錯誤所以我想到了放置hive站點。 xml(在解壓'apache-hive-1.2.1-bin.tar.gz'文件後,我只是將$ HIVE_HOME添加到bashrc中,並且除了與Spark的這個集成之外,其他所有工作都是正常的)在apache站點中,我發現我需要把蜂巢-site.xml中作爲metastore配置 我所創建的文件,如下Hive metastore配置derby
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby://localhost:1527/metastore_db;create=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
</configuration>
我把IP作爲本地主機,因爲它是單一節點機。之後噸帽子我甚至無法連接到Hive。它拋出錯誤
線程「main」中的異常java.lang.RuntimeException:java.lang.RuntimeException:無法實例化org.apache.hadoop.hive.ql。 metadata.SessionHiveMetaStoreClient 在org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
.... 引起:javax.jdo.JDOFatalDataStoreException:無法打開的測試連接到給定的數據庫。 JDBC url = jdbc:derby:// localhost:1527/metastore_db; create = true,username = APP。終止連接池(如果您希望在應用程序之後啓動數據庫,請將lazyInit設置爲true)。原始異常:------ java.sql.SQLException:找不到適合jdbc的驅動程序:derby:// localhost:1527/metastore_db; create = true
指向相同的錯誤日誌東西。如果我刪除從conf文件夾蜂巢蜂房site.xml的工作沒有問題。可有人點我 感謝 Anoop [R
您可以嘗試將echo $ CLASSPATH命令放在配置單元腳本中。但我已經嘗試了每個建議stackoverflow等,並得到相同的錯誤。我要放棄並嘗試Spark或Hbase或其他東西。這裏是.bashrc:'export HIVE_HOME =/usr/local/hive/apache-hive-2.1.1-bin export PATH = $ HIVE_HOME/bin:$ PATH export DERBY_INSTALL =/usr/local/derby/db-德比10.13.1.1斌 出口DERBY_HOME = $ DERBY_INSTALL 出口PATH = $ PATH:$ DERBY_HOME/bin中 出口HIVE_CONF_DIR = $ HIVE_HOME/conf目錄 出口CLASSPATH = $ CLASSPATH:$ DERBY_HOME/lib目錄/德比。jar:$ DERBY_HOME/lib/derbytools.jar' –