uniq

    0熱度

    2回答

    我的格式 用戶ID 緯度經度時間戳 緯度經度時間戳 用戶ID 的文件 緯度時間戳 緯度經度時間戳 緯度經度 時間戳等 我要拆分的文件,然後做這種類型的事情 cat data.txt | sort | awk '{print $1" "$2;}' | uniq -c | sort 這樣我就可以得到每個唯一位置爲每個用戶顯示的次數。

    3熱度

    3回答

    我正在尋找一種很好的方法來在活動日誌文件上進行尾部處理,並顯示具有相同日期/時間的行數。 目前這一工作: tail -F /var/logs/request.log | [cut the date-time] | uniq -c 但性能不夠好。有一分鐘以上的延遲,並且每次輸出的行數都很少。 有什麼想法?

    2熱度

    4回答

    我有幾個基於每行字的單詞表文件。 現在,我要生成新的文件,這應該是: 相比第一和第二檔和第二檔把的話,未在第一次發現,他們將在第三檔。 File_1 WORD1 WORD2 WORD3 word4 的word5 File_2 WORD1 WORD3 的word5 word7 word9 我試過幾件事情: cat file.1 file.2 | sort -n | uniq -u | cat > f

    1熱度

    1回答

    我有一個csv文件與重複行,我需要只提取非重複行。 例如,我有 12 13 14 12 13 15 和所需的輸出是: 14 15

    0熱度

    1回答

    我正在UNIX shell(OS X)中進行一些數據處理。 在使用uniq -c並做了一些進一步的基於查找的處理之後,我再次對數據進行排序,並且需要再次使用uniq -c,但請記住先前計數的結果(例如計數計數) 。 E.g.如果輸入的數據是這樣的: 36351 | 3 36351 | 2 36351 | 13 2914 | 1 2914 | 2 那麼輸出應該是這樣的:(字段的順序並不顯

    0熱度

    1回答

    我有一個非常大的文件,它看起來是這樣的: 1.22,A 2,10,A 3,4,B 4,3,B 5,20,B 第二列告訴我的第三列的許多情況下,怎麼有。所以我想摺疊第三列(以便它被有效地分開),但是加上第二列的值。所需的輸出會是這樣的: 32,A 27,B 我能想出一些相當複雜的方法可以做到這一點,但現在看來似乎應該是相當簡單的...

    0熱度

    1回答

    我已經實現了一個外部排序算法,並希望驗證其輸出。 我已經使用std::less和string_a < string_b進行排序(它們是相同的,對嗎?)。 現在我想驗證我的輸出使用例如unix的sort -c。 但sort似乎使用不同的排序模式比c + +。有沒有辦法讓它的操作方式與std::less/string::operator<相同?

    0熱度

    1回答

    的前24個字節我有一個具有以下IP的文件: 64.5.12.3 64.5.12.8 122.4.5.1 122.4.5.6 如何唯一僅基於前24個字節,使得輸出爲: 64.5.12 122.4.5

    10熱度

    2回答

    我有一個這樣的文件: 80.13.178.2 80.13.178.2 80.13.178.2 80.13.178.2 80.13.178.1 80.13.178.3 80.13.178.3 80.13.178.3 80.13.178.4 80.13.178.4 80.13.178.7 我需要顯示重複行的唯一條目(類似於uniq的-d),但只有條目發生不僅僅是更兩次(兩次是一

    2熱度

    2回答

    我有這樣一個文件 - 1 2 3 1 4 5 a z 3 a 3 4 a f g b b g 我想將它分割成多個文件(多達有組),每個包含那些具有相同的第一場線。 1 2 3 1 4 5 a z 3 a 3 4 a f g b b g 我該怎麼做?我嘗試uniq --all-repeated=separate -w 32,但它認爲完整的行,而不是隻發現重複時的第一列