load-csv

    0熱度

    2回答

    我正在使用加載csv操作將關係加載到Neo4j中的圖形db中。節點已經創建。我有四種不同類型的關係可以從四個不同的CSV文件(文件1 - 59關係,文件2 - 905關係,文件3 - 173,000關係,文件4 - 超過100萬個關係)創建。密碼查詢執行得很好,但是文件1(59個關係)需要25秒才能執行,文件2需要6.98分鐘,文件3從過去2小時開始仍在繼續。鑑於neo4j處理數百萬關係的能力,我

    0熱度

    1回答

    我是neo4j的noob,我的問題看起來很簡單。 我有CSV文件,其結構如下: Id是Person ID,Fam是項目ID,此人蔘與其中。 如果他們在同一個項目上工作,我想連接人員。 這種情況下最好的數據模型是什麼?首先讓我想到的是使id - 節點和Fam標籤。但我不知道如何將多個標籤加載到一個節點。 其次是將id和Fam作爲節點,然後進行查詢以顯示相關員工。 對於第二種情況的代碼將是這樣的: L

    2熱度

    1回答

    我想使用neo4j-rest java api將大量數據從csv導入到neo4j。爲了避免內存不足異常,我使用定期提交,所以一個示例Java代碼將是: // just to let you know what classes I am using import org.neo4j.rest.graphdb.query.CypherTransaction; import org.

    0熱度

    1回答

    我有這段從另一個站點加載csv的代碼。 LOAD CSV FROM 'https://www.quackit.com/neo4j/tutorial/genres.csv' AS line CREATE (:Genre { GenreId: line[0], Name: line[1]}) 但是當我上傳同樣的CSV我的github帳戶,並嘗試它,它給了我一個錯誤。 LOAD CSV FROM

    1熱度

    2回答

    我嘗試使用與頭負載CSV到以下節點加載到Neo4j的命令: id label name 0 Person Dave 1 Person Boris 2 Person Rita 3 Person Daniel 4 Person Papa 5 Person Mama 我的Excel的表保存爲: CSV UTF-8 (Comma delimited) (*.csv) 和文件的位置是:在

    0熱度

    2回答

    我使用下面的查詢加載從CSV數據的Neo4j: CREATE CONSTRAINT ON (e:Entity) ASSERT e.entity IS UNIQUE; USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM 'file:/file1.csv' AS line FIELDTERMINATOR '|' WITH line

    1熱度

    1回答

    我有一組節點使用file_A創建,其中包含與每個節點的'id'列。它一直使用這個暗號查詢(在Java中)創建: USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM 'file:file_A' AS line FIELDTERMINATOR '\t' CREATE (c:Node {nodeId:line.id}) 現在我還有一個文件(

    0熱度

    1回答

    我剛開的Neo4j開始的所有節點,我試圖使用LOAD CSV與下面的腳本將一些數據加載到Neo4j的3.1: USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM "file:///Fake59.csv" AS line MERGE (person:Person {firstName: line.GivenName, middleIniti

    3熱度

    1回答

    我看過Nicole White的真棒youtube「Using LOAD CSV in the Real World」,並決定使用相同的方法重新創建neo4j數據。 我已經克隆了她在這個主題上的git repo,並且一直在我的Mac上爲社區版本的neo4j開發這個例子。 我正在通過load.cql文件一次將每個命令粘貼到命令窗口中。 事情很順利 - 我有一堆創建的節點。爲了處理 主文件中sub_p

    1熱度

    1回答

    我有一個csv格式的航班數據庫,其中包含日期和航班號。 date flight 01-01-2011 12:00 428 02-01-2011 12:00 428 03-01-2011 12:00 428 01-01-2011 12:00 429 02-01-2011 12:00 429 03-01-2011 12:00 429 因此,