我從MongoDB的出口JSON文件,它看起來像:JSON分割成多個文件
{"_id":"99919","city":"THORNE BAY"}
{"_id":"99921","city":"CRAIG"}
{"_id":"99922","city":"HYDABURG"}
{"_id":"99923","city":"HYDER"}
大約有30000行,我想每一行拆分成它自己的.json
文件。 (我想我的數據傳輸到couchbase集羣)
我試着這樣做:
cat cities.json | jq -c -M '.' | \
while read line; do echo $line > .chunks/cities_$(date +%s%N).json; done
,但我發現,它似乎下降線的負載和運行此命令的輸出只當我期待30000奇怪時,給了我50個奇怪的文件!
有沒有一種合乎邏輯的方式來使這不會使用任何套件將任何數據刪除?
BSD'date'不支持'%N'作爲幾分之一秒。由於每秒只生成一次唯一的輸出文件名,並且每秒處理的行數遠遠超過一行,所以會丟失行數。 – chepner