我有一個使用spark的spark,scala sbt項目。我需要多個創建HiveContexts,這是內置derby對火花蜂巢不允許的。有人可以幫助我設置mysql作爲Metastore,而不是Derby,這是默認數據庫。我沒有安裝實際的配置單元或安裝了spark。我對火花和配置單元使用sbt依賴關係。在星火的conf目錄將MySQL設置爲內置火星蜂巢的Metastore
1
A
回答
0
複製蜂房site.xml文件並在該文件
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/metastore_db?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
<description>password to use against metastore database</description>
</property>
0
沙克蒂
你必須在類路徑的conf文件更改某些屬性。我正在用Intellij來使用hadoop,hive和spark。在Intellij中,我在我的類路徑中有file/usr/local/spark/conf /,file:/ usr/local/hadoop/etc/hadoop /和file:/ usr/local/hive/conf /。您可以使用下面打印您的運行時類路徑:
val cl = ClassLoader.getSystemClassLoader
cl.asInstanceOf[java.net.URLClassLoader].getURLs.foreach(println)
我希望這個幫助,如果你還沒有找到了解決。
相關問題
- 1. 蜂巢德比Metastore配置
- 2. SparkR在Windows上 - 星火SQL不與蜂巢支持內置
- 3. 如何設置在蜂巢
- 4. 星火 - Thirft - - 蜂巢交互器
- 5. 去除蜂巢metastore數據庫
- 6. 蜂巢未能metastore數據庫
- 7. 查詢遠程蜂巢metastore得到表
- 8. 阿帕奇星火 - 蜂巢內部聯接,LIMIT和定製UDF
- 9. 蜂巢DSN設置連接問題
- 10. 蜂巢執行引擎 - 星火 - 無法創建火花客戶
- 11. 星火/蜂巢 - 組數據爲「樞軸表」格式
- 12. HDInsight蜂巢日誌位置
- 13. 蜂巢和星火窗口功能的數據洗牌
- 14. 星火RDD:設置差異
- 15. 星火基準設置
- 16. 星火工作沒找到表蜂巢數據庫
- 17. 插入從星火代碼蜂巢表失敗
- 18. 星火:無法從蜂巢表中讀取數據
- 19. 陣列<double>星火寫專欄蜂巢表
- 20. 更新表蜂巢使用星火斯卡拉
- 21. 患有Kerberos的蜂巢Metastore「時鐘扭曲太大」錯誤
- 22. 蜂巢Metastore嘗試創建一個德比連接,而不是MySQL的
- 23. 拋出ClassCastException在apache的火花蜂巢
- 24. SQOOP Mysql的進口蜂巢錯誤用戶不屬於蜂巢
- 25. 如何配置MySQL的35年5月5日與蜂巢0.12
- 26. 蜂巢外部表在MySQL
- 27. 在蜂巢外部表 - 位置
- 28. 蜂巢火花子進程連接回
- 29. 如何訪問蜂巢表火花
- 30. 選擇內選擇蜂巢
我的項目是一個sbt項目,它使用火花罐。任何地方都沒有conf目錄。嘗試在項目根目錄下創建一個conf目錄,但沒有任何影響。 – Shakti
不在您的項目中,請轉至羣集的配置目錄,其他conf文件駐留的位置像spark-default.conf和spark-env.sh。然後將hive-site.xml文件複製到此目錄中並更改屬性 – Kaushal
我沒有使用羣集,而是使用了一個spark jar。沒有其他配置文件。 – Shakti