我試圖連接到使用Spark JDBC從Teradata中提取數據。我在主父目錄上創建了一個「lib」目錄,並放置了外部Teradata JAR並運行了sbt包。另外,我還在我的spark-shell命令中提供了「--jars」選項來提供jar。然而,當我運行火花外殼,它似乎並沒有找到類使用Spark JDBC連接到Teradata
Exception in thread "main" java.lang.ClassNotFoundException: com.teradata.hadoop.tool.TeradataImportTool
然而,當我做「罐子TVF」的jar文件,我看到了類。不知何故,Spark實用程序無法找到該jar。還有什麼我需要做的,所以Spark能找到它嗎?請幫助
嘗試添加到你的脂肪罐子。這幫助我處於類似的情況。 – morfious902002