logfile-analysis

    2熱度

    5回答

    我有一個包含時間戳和數據的日誌文件(用','分隔)。我想要一個Python腳本來解析日誌文件來計算每小時發生的數據數量。 這裏的日誌文件內容的例子: 2015-06-18 09:04:04.377,54954.418 2015-06-18 09:04:48.863,54965.438 2015-06-18 09:05:29.080,49.813 2015-06-18 09:06:04.697

    2熱度

    2回答

    我有以下數據集 > head(data) X UserID NPS V3 V4 V5 Event V7 Element ElementValue 1 1 254727216 10 0 19 10 nps.agent.14b.no other attempt was made 10/4/2014 23:59 cea.element_name nps.

    -1熱度

    1回答

    我必須使用機器學習技術自動分析json日誌文件,以便更好地理解用戶行爲並識別頻繁執行的操作以提高應用程序的可用性。日誌文件包含文件系統事件,鼠標事件,鍵盤事件,應用程序事件(啓動,終止,活動,停用,...)等條目,這些條目在特定應用程序的使用過程中記錄下來。 記錄的條目是這樣的: { "timestamp" : "20150427T100724.571637", "ent

    1熱度

    1回答

    我在本地中使用Postfix。我正在編寫一個腳本來獲取延遲/退回的郵件報告,用於每天。如果我是正確的,通常是日誌在日誌文件中以列的形式打印。 我的建議是我希望grep前一天的「to」,「status」,「said」和它的消息例如「說:550 Invalid Recipient」。而事情是相同的日誌打印多次,但我需要grep從所有類似的日誌中的任何一個。 Feb 13 13:40:35 ganga1

    0熱度

    1回答

    我在多個Windows羣集上有大約1000個站點。 IIS日誌文件(文本文檔)可用於服務器上設置位置中的每個站點。我所看到的解決方案應該能夠做到以下幾點。 1)將日誌文件推送到雲中。 2)閱讀這些日誌文件並聚合數據,如訪問,瀏覽,按網址點擊並將其存儲在雲中以便於報告。 3)通過第三方報告解決方案訪問彙總數據。 首先,我想弄清楚我的選擇和我需要什麼樣的設置。

    -4熱度

    1回答

    例如: [2017-04-14 03:56:22,085109] 如果這是在事件A發生,我想這條線,其中將有成千上萬行的日誌文件之前走15分鐘的時間,我想通過everyline在此期間迭代和尋找特定的關鍵字。日誌文件中的每一行都具有相同格式的時間戳。

    1熱度

    3回答

    我有一個日誌文件(* .LOG)我想分析和下面的查詢: Line 33043: 17/07/2016;13:26:45;GetMasterOrderNo;Master Order No is : 1117103907 for SoSupplierOrderNo, 1117103907 Line 33048: 17/07/2016;13:26:45;AddAutoPurchHdr;Could no

    0熱度

    1回答

    平臺:RHEL7 情況: 一個JMeter的報告文件被附加了新的成果,每5分鐘的crontab腳本 另一個awk腳本看起來響應時間大於500ms併發送電子郵件提醒 問題陳述: 的要求是隻掃描在報告文件中新增加的線路。 目前,awk腳本每次都會讀取完整報告 ,並且即使對於較早的事件也會發送警報。 awk -F「,」'$ 4!= 200 || $ 14> 500'results.jtl 好的如果awk

    0熱度

    1回答

    我想在Python中編寫腳本來觀看日誌文件和搜索新行中的特定關鍵字,如果發現電子郵件到特定地址,否則忽略 是否有任何Python模塊有幫助 ? 問候

    -1熱度

    1回答

    我有一個DNS內部查詢日誌文件,我想這樣做就可以分析,所以ONW記錄是這樣的: 18軍2017年04:00:10.139客戶端@XXXXXXXXXXXX ip-address#number(ip-address):view internal:query:ip-address IN AAAA +(ip-address格式爲ipv4) 我真的很新,所以我試着搜索但我找不到記錄中的「+」是什麼意思,據我