zgrep

    0熱度

    2回答

    我有幾百萬,像這樣 1482364800 bunch of stuff 172.169.49.138 252377 + many other things 1482364808 bunch of stuff 128.169.49.111 131177 + many other things 1482364810 bunch of stuff 2001:db8:0:0:0:0:2:1 12432

    1熱度

    2回答

    我想找到「getSORByID」的所有匹配具有子目錄如下的目錄裏面: */*/*/*/*/*/myfile.gz 我試圖找到this -name * myfile.gz -print0 | xargs -0 zgrep -i「getSorById」但它沒有工作。任何人都可以告訴我最好和最簡單的方法來得到這個?

    4熱度

    1回答

    我的任務是編寫一個shell腳本,通過Linux和Solaris服務器上多個目錄中的數百個日誌文件來grep。一些日誌以多種格式壓縮,一些日誌大小隻有幾GB。我很擔心grep會在服務器上使用大量資源,並可能通過耗盡內存來關閉機器上運行的Web服務器(如果這可能會發生)。 我應該解壓縮文件,grep他們,然後再壓縮它們或使用zgrep(或等效)在壓縮時搜索它們?在另一種方法中使用一種方法會有明智的資

    0熱度

    1回答

    我有一個問題,使用zgrep。我想查找基於用戶給出的ID和某個Date的XML文件。 每個XML文件都包含一個ID和一個日期。該程序應該承認這些文件可能具有相同的ID,但具有不同的日期。我試圖使用zgrep,但我不知道如何查找兩個不同的變量,並且我的代碼不起作用。這裏是我的代碼: echo "Introduce ID: " read -r InputCode echo "Set a speci

    0熱度

    1回答

    如果我正在使用來自1000個文件的GREP命令搜索/檢查KeyWord/String;例如,那麼是否有任何選項/方法可以查看/顯示由GREP命令處理的文件的百分比或數量...?。 只是我想知道多久才能完成搜索過程。 請幫忙

    0熱度

    1回答

    上下文:我試圖找到一個python包的github存儲庫。要做到這一點,我是zgrep'ping包歸檔github網址。它正常工作,直到我限制輸出1分的結果: # works, returns a lot of results subprocess.check_output(["zgrep", "-oha", "github", 'Django-1.10.1.tgz']) # works, a