0
我測試作業分配公平調度模式,但是我得到這樣的錯誤 產生java.io.IOException:不能運行程序「打擊」:java.io.IOException異常:錯誤= 24,打開的文件太多hadoop fair scheduler打開文件錯誤?
谷歌後,他們大多會告訴檢查有多少文件目前在系統中打開(通過Unix命令LSF),以及該數字如何與您的系統限制相關(通過bash命令ulimit -n檢查)。在我看來,增加一次打開文件的最大數量是短期解決方案。
有沒有辦法避免這種情況?