9
嗯,我使用PySpark,並且我有一個Spark數據框,使用它將數據插入到一個mysql表中。在通過JDBC從pyspark數據框插入到外部數據庫表時插入重複鍵更新
url = "jdbc:mysql://hostname/myDB?user=xyz&password=pwd"
df.write.jdbc(url=url, table="myTable", mode="append")
我想更新列值(其不是在主鍵)由它的列值之和的特定數目。
我試過用不同的模式(追加,覆蓋)DataFrameWriter.jdbc()函數。
我的問題是,我們如何更新列值,就像我們在mysql中使用ON DUPLICATE KEY UPDATE
那樣更新列值,同時將pyspark數據幀數據插入表中。
您是否找到解決方案? – blumonkey