我使用這個預備能夠連接到PostgreSQL數據庫。他們不會工作,但我無法找到任何正確的表示法的建議。將postgres JDBC驅動包含到SparkR中
.libPaths(c(.libPaths(), '/opt/spark-1.6.1-bin-hadoop2.6/R/lib'))
Sys.setenv(SPARK_HOME = '/opt/spark-1.6.1-bin-hadoop2.6')
Sys.setenv(PATH = paste(Sys.getenv(c('PATH')), '/opt/spark-1.6.1-bin-hadoop2.6/bin', sep = ':'))
library(SparkR)
d.csv <- "com.databricks:spark-csv_2.11:1.4.0"
d.pg <- "org.postgresql.Driver:postgresql-9.4:1208"
sc <- sparkR.init(sparkPackages=c(d.csv, d.pg))
我在「/opt/spark-1.6.1-bin-hadoop2.6/lib/postgresql-9.4.1208.jar」和另外百勝安裝了JDBC存儲在我的centos6機器上的JAR文件。
當我嘗試啓動時,會發現csv庫,但無法解析JDBC PostgreSQL驅動程序。
::::::::::::::::::::::::::::::::::::::::::::::
:: UNRESOLVED DEPENDENCIES ::
::::::::::::::::::::::::::::::::::::::::::::::
:: org.postgresql.Driver#postgresql-9.4;1208: not found
::::::::::::::::::::::::::::::::::::::::::::::
任何暗示將是巨大的。非常感謝。
@DubravkoDolic你可能想要更新你的問題,並添加你嘗試迴應這個,因爲也許你有更多的錯別字。 –
仍然沒有解決方案。我試着用zero323建議的不同的驅動程序類,但沒有成功。我一直在努力。 –