2016-01-13 76 views
0

我在python中使用網絡爬蟲(Scrapy)來連續下載數據(單詞),並通過py2neo實時將節點保存爲neo4j。 我的代碼只是看起來像:當使用py2neo時,Java內存不斷增加

graph = Graph("http://localhost:7474/db/data/") 

def create(graph,word): 
    node=graph.merge_one("WORD","name",word) 
    return node 

我的網絡蜘蛛調用此函數創建它每次得到一個字。然而,當我的蜘蛛抓取網頁時,我發現Neo4j的Jave記憶力不斷增加。因爲我的蜘蛛會跑幾個星期,恐怕有一天會失去記憶。我只想每次創建一個節點,之後不會使用此節點,爲什麼Java內存不斷增加?我認爲創建的節點對象始終保持在Java中,但如何釋放這些不必要的對象?那麼有什麼方法可以保持Java內存不增加?

在此先感謝

回答

0

對不起對此。

我剛剛發現,當Java內存達到一定的數值​​時,它會自動減少並再次增加。對不起這個問題,我是新手neo4j和Java

相關問題