0
我在用spark寫一個JSON文件。有一些鍵值爲null
。這些在DataSet
中顯示得很好,但是當我寫入文件時,密鑰被丟棄。我如何確保他們被保留?在寫入JSON的時候保留鍵值爲空的值
代碼寫入文件:從源JSON數據的
ddp.coalesce(20).write().mode("overwrite").json("hdfs://localhost:9000/user/dedupe_employee");
部分:
"event_header": {
"accept_language": null,
"app_id": "App_ID",
"app_name": null,
"client_ip_address": "IP",
"event_id": "ID",
"event_timestamp": null,
"offering_id": "Offering",
"server_ip_address": "IP",
"server_timestamp": 1492565987565,
"topic_name": "Topic",
"version": "1.0"
}
輸出:
"event_header": {
"app_id": "App_ID",
"client_ip_address": "IP",
"event_id": "ID",
"offering_id": "Offering",
"server_ip_address": "IP",
"server_timestamp": 1492565987565,
"topic_name": "Topic",
"version": "1.0"
}
在上面的例子鍵accept_language
,app_name
和event_timestamp
已被放棄。