2
我試圖通過arangoimp將大數據集導入到ArangoDB。它大約有5500萬條邊緣。我同意將wal.logfiles的大小(--wal.logfile-size從32k增加到1024k)。這解決了最後一個錯誤。但現在我得到以下錯誤:將非常大的數據集導入arangoDB時出錯
WARNING {collector} got unexpected error in MMFilesCollectorThread::collect: no journal
ERROR cannot create datafile '/usr/local/var/lib/arangodb3/databases/database-1/collection-2088918365-385765492/temp-2153337069.db': Too many open files
Importstatement是:arangoimp --file links_de.csv --type csv --collection links
有沒有辦法讓arangoimp工作更進行迭代喜歡做大塊的東西?我會很複雜的分割CSV的一些部分,因爲它的大小...
非常感謝!
多個錯誤消息: '錯誤{壓實}無法創建壓實文件:沒有journal' '錯誤不能創建數據文件「在/ usr /本地的/ var/lib中/ arangodb3 /databases/database-1/collection-42-2031239911/compaction-110.db':打開的文件過多 –