2016-03-23 14 views
4

用於Spark中的SQL查詢。什麼是SparkSQL SQL查詢寫入JDBC表?

對於讀,我們可以通過

CREATE TEMPORARY TABLE jdbcTable 
USING org.apache.spark.sql.jdbc 
OPTIONS dbtable ...; 

對於寫讀JDBC,什麼是將數據寫入到使用SQL遠程JDBC表的查詢?

注意:我希望它是SQL查詢。 plz提供了在使用SparkSQL的HiveContext.sql(...)時可以寫入jdbc的純「SQL查詢」。

回答

-1

您可以使用jdbc編寫數據框,與以下類似。

df.write.jdbc(url, "TEST.BASICCREATETEST", new Properties) 
-1

是的,你可以。如果您想將數據幀保存到一個現有的表,你可以使用

df.insertIntoJDBC(url, table, overwrite) 

,如果你想創建新表,以保存該數據幀時,您可以使用

df.createJDBCTable(url, table, allowExisting) 
-1
// sc is an existing SparkContext. 
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) 

sqlContext.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)") 
sqlContext.sql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src")