2017-08-04 73 views

回答

0

由於MongoDB Connector for Spark版本1.1或更高版本(目前版本爲2.2) 當你如下執行save()

dataFrameWriter.write.mongo() 
dataFrameWriter.write.format("com.mongodb.spark.sql").save() 

如果數據幀包含_id領域,數據將是upserted。這意味着任何具有相同_id值的現有文檔都將被更新,並且集合中不存在_id值的新文檔將被插入。

另請參閱MongoDB Spark SQL瞭解更多信息和摘要。

+0

謝謝,我希望有一種基於我的數據集中的另一個領域做到這一點的方法 –

相關問題