2017-06-17 52 views
1

我試圖連接到使用Spark JDBC從Teradata中提取數據。我在主父目錄上創建了一個「lib」目錄,並放置了外部Teradata JAR並運行了sbt包。另外,我還在我的spark-shell命令中提供了「--jars」選項來提供jar。然而,當我運行火花外殼,它似乎並沒有找到類使用Spark JDBC連接到Teradata

Exception in thread "main" java.lang.ClassNotFoundException: com.teradata.hadoop.tool.TeradataImportTool 

然而,當我做「罐子TVF」的jar文件,我看到了類。不知何故,Spark實用程序無法找到該jar。還有什麼我需要做的,所以Spark能找到它嗎?請幫助

+0

嘗試添加到你的脂肪罐子。這幫助我處於類似的情況。 – morfious902002

回答

1

這種特殊類com.teradata.hadoop.tool.TeradataImportToolteradata-hadoop-connector.jar

你可以嘗試在提交的工作就像下面的例子來傳遞:

--conf spark.driver.extraClassPath complete path of teradata-hadoop-connector.jar 
--conf spark.executor.extraClassPath complete path of teradata-hadoop-connector.jar 

OR

進口罐子兩個司機&執行。所以,你需要編輯conf/spark-defaults.conf在下面添加兩行。

spark.driver.extraClassPath complete path of teradata-hadoop-connector.jar 
spark.executor.extraClassPath complete path of teradata-hadoop-connector.jar 
+0

它工作嗎?如果是的話,你可以投票/接受爲所有者或說這是我的問題...沉默不會幫助! –