到目前爲止,我已經能夠使用Spark SQL將使用Mysql JDBC驅動程序註冊爲Spark數據框的方式,通過Mysql數據庫連接和運行查詢。是否可以從Spark SQL連接到TeraData並通過它運行查詢?
是否可以從Spark SQL連接到TeraData並對其運行查詢?
到目前爲止,我已經能夠使用Spark SQL將使用Mysql JDBC驅動程序註冊爲Spark數據框的方式,通過Mysql數據庫連接和運行查詢。是否可以從Spark SQL連接到TeraData並通過它運行查詢?
是否可以從Spark SQL連接到TeraData並對其運行查詢?
是的,這是可能的!
負載特定的Teradata類驅動程序
val sqlcontext=new org.apache.spark.sql.SQLContext(sc)
Df_name=sqlcontext.load("JDBC",Map("url->uri to teradata","dbtable->name"))
註冊爲臨時表和查詢在它
問題:是否有可能從星火SQL和 運行查詢在連接到Teradata數據它?
是的,它是可能的。
創建一個像下面的例子一樣的數據框,並在其上運行spark sql。
下面是火花JDBC
val jdbcDF = sqlContext.load("jdbc", Map(
"url" -> "jdbc:teradata://<server_name>, TMODE=TERA, user=my_user, password=*****",
"dbtable" -> "schema.table_name", // here also can be select query
"driver" -> "com.teradata.jdbc.TeraDriver"))
val sqlcontext=new org.apache.spark.sql.SQLContext(sc)
val jddf = sqlcontext.load("jdbc",
Map("url" -> "jdbc:teradata://servername/,
TMODE=TERA,
user=####,
password=####,
LOGMECH=LDAP",
"dbtable" -> "(select count(column-name) as cnt from schemaname.table) AS ST", "driver" -> "com.teradata.jdbc.TeraDriver")
)
方式