heapy

    1熱度

    1回答

    我正在運行一個tensorflow模型,它在處理大圖像時大約10分鐘耗盡60G的RAM。 我已經運行Heapy試圖鎖定泄漏,但heapy只顯示90M的內存使用情況並保持不變。 我注意到這篇文章:Python process consuming increasing amounts of system memory, but heapy shows roughly constant usage 這建

    2熱度

    1回答

    我記得reading,很難確定Python中對象的確切內存使用情況。但是,該線程是從2009年開始的,從那時起我已經閱讀了Python中的各種內存分析器(參見this thread中的示例)。另外,IPython在最近幾個月已經大幅成熟(前幾天發佈了1.0版本) IPython已經有一個名爲whos的魔術,它打印變量名稱,它們的類型以及一些基本的數據/信息。 以類似的方式,是否有任何方法可以獲得由

    6熱度

    2回答

    我有興趣瞭解大對象加載時python堆的總大小的增加。 heapy似乎是我需要的,但我不明白結果。 我有一個350 MB的泡菜文件,裏面有一個熊貓DataFrame,其中包含大約250萬個條目。當我加載文件並在之後檢查heapy堆時,它會報告堆中只添加了大約8 MB的對象。 import guppy h = guppy.hpy() h.setrelheap() df = pickle.loa