ulimit

    0熱度

    1回答

    我想通過下面的命令在Ruby中運行一些計算密集型程序: %x(heavy_program) 不過,我有時想限制運行時間的程序。所以我試着做 %x(ulimit -St #{max_time} & heavy_program) 但是它似乎失敗了;即使當我在Ruby之外的正在運行的sh shell中嘗試時,「&」技巧也不起作用。 我敢肯定有這樣做的更好的辦法...

    2熱度

    1回答

    我面臨的問題是在python腳本中出現異常OSError 24(「太多打開的文件」)在我的Mac OS X上引發。 我不知道是什麼原因導致了這個問題。 lsof的-p顯示40-50行,我的ulimit爲1200(我檢查使用 resource.getrlimit(resource.RLIMIT_NOFILE) ),即返回元組(1200,1200)。所以我甚至沒有超過極限。 我的腳本產生了多個子進

    4熱度

    3回答

    我想通過在Linux上使用ulimit命令來限制通過bash啓動的進程使用的內存。我想知道用什麼操作系統機制來支持ulimit。特別是,它是基於cgroups嗎?

    2熱度

    1回答

    然後,我得到硬限制已成爲1 ..有一種簡單的方法來「重置我所做的」?這是我通過ssh登錄的服務器。

    4熱度

    4回答

    我有幾個進程在RHEL 6.3上運行,但由於某些原因,它們超出了線程堆棧大小。 例如,Java進程在運行時在啓動時被賦予了-Xss256k的堆棧大小,並且C++進程在實際代碼中使用pthread_attr_setstacksize()給出了1MB的線程堆棧大小。 出於某種原因然而,這些過程都沒有堅持到這些限制,我不知道爲什麼。 例如,當我運行 pmap -x <pid> 爲C++和Java過程

    14熱度

    3回答

    我正在使用tomcat 7和java 1.7的debian服務器。這是一個接收多個TCP連接的應用程序,每個TCP連接都是由java進程打開的文件。 看着/proc/pid of java/fd我發現,有時,打開的文件數超過1024,出現這種情況時,我發現在catalina.out日誌堆棧跟蹤_SocketException: Too many open files_ 一切我發現這個錯誤,人們指的

    4熱度

    2回答

    全部 我想永久設置核心文件大小爲無限制。 閱讀它後,建議修改/etc/security/limits.conf。 我有以下行這樣做: 軟核10000 根硬核10000 我的變化後重新啓動,我發出的ulimit -a和核心仍設置爲0。 無法理解設置無法正常工作的原因。什麼可以覆蓋它?

    1熱度

    1回答

    我正在幫助編寫一個程序,並在Windows上,程序工作正常。在Mac上,更改框架目錄的唯一合適的位置後,我得到這個錯誤: run: A fatal error has been detected by the Java Runtime Environment: SIGSEGV (0xb) at pc=0x00007fff92309bb2, pid=12438, tid=44807 JRE

    6熱度

    4回答

    我需要在Perl腳本中打開超過10,000個文件,因此我要求系統管理員將我的帳戶限制更改爲14,000。 ulimit -a現在顯示了這些設置: core file size (blocks, -c) unlimited data seg size (kbytes, -d) unlimited file size (blocks, -f) unlimited open files

    1熱度

    1回答

    我正是這裏所描述的同樣的問題有: timer_create() : -1 EAGAIN (Resource temporarily unavailable) 總之 ,一些工藝保留了很多通過timer_create計時器,但從未釋放他們。 我無法弄清楚的是如何確定受生產環境中泄漏影響的流程。 我怎麼能知道什麼過程是壞的,沒有隨機殺死所有正在運行的東西? 任何/proc /`pidof myproce