2016-06-10 146 views

回答

1

這裏是修復: Apache Spark : JDBC connection not working 加入prop.put("driver", "org.postgresql.Driver")工作正常。

奇怪的是,連接似乎並不穩定,例如與蜂房上下文它只能工作1次2次。

0

這很簡單。要連接到外部數據庫以將數據檢索到Spark數據框,需要額外的jar文件。

E.g.與MySQL的JDBC驅動程序是必需的。下載驅動程序包並從可從羣集中的每個節點訪問的路徑中提取mysql-connector-java-x.yy.zz-bin.jar。優選地,這是共享文件系統上的路徑。 例如與Pouta虛擬集羣這樣的路徑將在/shared_data下,在這裏我使用/shared_data/thirdparty_jars/

從終端1直接提交的Spark作業可以指定–driver-class-path參數指向應該提供給作業的工作人員的額外罐子。但是,這不適用於此方法,因此我們必須爲spark-defaults.conf文件中的前端和工作器節點配置這些路徑,通常位於/opt/spark/conf目錄中。

放置任何jar,你使用的是什麼服務器在依賴:

spark.driver.extraClassPath /"your-path"/mysql-connector-java-5.1.35-bin.jar 

spark.executor.extraClassPath /"your-path"/mysql-connector-java-5.1.35-bin.jar 
相關問題