0
我正在使用PySpark進行一些大規模處理並將一些結果保存到MongoDB實例。我正在使用mongo-spark-connector_2.11-2.0.0.jar
將數據框寫入MongoDB。如何處理PySpark中的MongoDB異常?
df.write.format("com.mongodb.spark.sql.DefaultSource").option("spark.mongodb.output.uri", "mongodb://username:[email protected]:10203/mydb.mycollection").mode("overwrite").save()
有時候我例外,例如ConnectionException
,MongoCommandException
等。所以我想處理這些例外。所以我添加了這些異常處理代碼片段,但是我得到了ImportError: No module named com.mongodb
。
try:
df.write.format("com.mongodb.spark.sql.DefaultSource").option("spark.mongodb.output.uri", "mongodb://username:[email protected]:10203/mydb.mycollection").mode("overwrite").save()
except MongoCommandException:
err_code = MongoCommandException.getErrorCode()
if err_code == int(16):
print "Request size is too large to write to Mongo"
所以能有人對你幫助我如何使用mongo-spark-connector_2.11-2.0.0.jar
有趣。謝謝! –