objgraph

    7熱度

    1回答

    我在一個多線程的代碼使用pandas.DataFrame(實際上的DataFrame定製子類稱爲Sound)。我已經注意到,我有內存泄漏,因爲我的程序的內存使用量逐漸超過1000萬擴充,最終達到我的電腦內存和系統崩潰〜100%。 我用objgraph嘗試跟蹤此泄漏,並且發現了的MyDataFrame實例數是怎麼回事了所有的時間,而它不應該:在其run方法每個線程創建一個實例,使得一些計算,節省在文

    2熱度

    1回答

    我有一個Python客戶端 - 服務器應用程序,它的服務器已經運行了大約4天......它的內存使用情況(如/ proc/PID/status-> VmSize所報告的)已增長到約660Mb,我想知道如果有可能是內存泄漏,所以我用objgraph打印出它的內存使用情況(第20對象類型): 58524 tuple 33270 dict 15483 function 9976 list 53

    2熱度

    2回答

    我有一個服務器子類產生線程響應處理程序,處理程序依次啓動應用程序線程。一切都很順利,除非我使用ObjGraph我看到正在運行的應用程序線程的正確數量(我正在進行負載測試並阻止了35個應用程序實例的運行)。 調用objgraph.typestats()提供了每個對象當前在解釋器中生存多少個實例的細分(根據GC)。查看內存泄漏的輸出,我發現700個記錄器實例 - 這將是服務器產生的響應處理器的總數。

    1熱度

    2回答

    最近,我讀objgraph文檔,我感到困惑下面的代碼 >>> class MyBigFatObject(object): ... pass ... >>> def computate_something(_cache={}): ... _cache[42] = dict(foo=MyBigFatObject(), ... bar=MyBigFatObject()) ...

    2熱度

    1回答

    見的代碼: import objgraph import numpy as np objgraph.show_growth() j = 20 y = [] for i in range(5): for l in range(j): y.append(np.array([np.random.randint(500),np.random.randint(500)]))

    5熱度

    1回答

    我正在嘗試使用C/Cython擴展和multiprocessing來查找Python/NumPy程序中令人討厭的內存泄漏的起源。 每個子進程處理一張圖像列表,每個子進程通過Queue向主進程發送輸出數組(通常大約200-300MB)。相當標準的地圖/縮小設置。 正如你可以想象的內存泄漏可以採取巨大的比例與這個巨大的陣列,並有多個進程愉快地超過20GB內存時,他們只需要5-6GB是...煩人。 我已

    13熱度

    4回答

    使用objgraph,我發現像這樣的一串對象: 威爾Python的垃圾收集處理這樣的循環,還是會泄露? 甲稍寬循環的視圖: