orientdb-etl

    0熱度

    1回答

    我有一堆文件(每個〜10Gb),每行代表一個JSON對象。我想以流模式導入它們,但看起來現在不支持(OrientDB v.2.2.12)。有沒有解決方法?對於這種情況推薦的方式是什麼?

    0熱度

    1回答

    我的目標是將數據從CSV文件導入到OrientDB中。 我使用OrientDB 2.2.22 Docker鏡像。 當我嘗試在Docker中執行/orientdb/bin/oetl.sh config.json腳本時,出現錯誤:"Can not open storage it is acquired by other process"。 我想這是因爲OrientDB - 服務仍在運行。但是,如果我試

    0熱度

    1回答

    我試圖從CSV文件導入到OrientDB的邊緣。頂點存儲在一個單獨的文件中,並已通過ETL導入到OrientDB中。 所以我的情況類似於OrientDB import edges only using ETL tool和OrientDB ETL loading CSV with vertices in one file and edges in another。 更新 Friend.csv "id

    0熱度

    1回答

    需要幫助以瞭解如何使用csv文件在orientdb中填充我的頂點類。在CSV文件的格式是 name,type,status xxxxx,ABC,3 yyyyy,ABC,1 zzzzz,123,5 -- 我有一個頂點和邊緣OrientDB,其中頂點有3個屬性的名稱,類型和狀態延長。我只希望頂點擺脫CSV填充,邊將通過動態API來創建 我試圖創建如下ETL文件: { "sourc

    0熱度

    1回答

    我創建這個配置文件: { "config": { "log": "debug" }, "extractor": { "jdbc": { "driver":"com.ibm.db2.jcc.DB2Driver", "url":"jdbc:db2://DB2TVIPA:447/DB2TVIPA", "userName": "li

    1熱度

    1回答

    我有最新的社區版本2.2.17。使用csv導入啤酒數據庫時,導入啤酒時出錯。 (類別,樣式等都得到了很好的導入)。 的錯誤是這樣的: OrientDB etl v.2.2.17 (build [email protected]; 2017-02-16 17:20:27+0000) www.orientdb.com [csv] INFO column types: {last_mod=ANY, a

    1熱度

    1回答

    我有興趣從一些包含WGS84緯度/經度空間座標的CSV文件中將一些數據加載到OrientDB中。 我正在使用OrientDB 2.2.8並將lucene spatial module添加到我的$ ORIENTDB_HOME/lib目錄中。 我正在使用ETL將我的數據加載到數據庫中,並且想要添加空間索引,但我不知道如何執行此操作。 說我的CSV文件有以下欄目: 標籤(字符串) 緯度(浮動) 經度(浮

    0熱度

    1回答

    導入OPoint數據到OrientDB 2.2.x的這關係到我的前面的問題 Spatial query with sub-select(我想通的部份出一個) OrientDB spatial query to find all pairs within X km of each other(還在尋找一個有用的答案) 對於(2)的迴應,我正在修改我的納斯卡geoglyph數據集,以使用WKT版本與更

    0熱度

    1回答

    1)在數據庫中包含ItemId和Name的類Item。 2)CSV文件:兩列, ItemId1,ItemId2001 ItemId1,ItemId2345 ItemId1,ItemId2381 ... ItemId2,ItemId8393 ItemId2,ItemId8743 .. 等 問: 如何定義一個ETL JSON文件在第2列中的ItemId1和所有ItemId之間,以及

    1熱度

    1回答

    我有一些數據,我要跟蹤,看起來是這樣的: node.csv Label1,Label2 Alpha,A Alpha,B Alpha,C Bravo,A Bravo,B 的對Label1和Label2定義一個唯一的入口這個數據集。 我有了在它的一些價值觀,我想鏈接到Table1創建的頂點另一個表: data.csv Label1,Label2,Data Alpha,A,10 Alp