我試圖通過libpcap嗅探HTTP數據,並在處理TCP有效負載後獲取所有http內容(頭+負載)。 根據我在Writing an http sniffer (or any other application level sniffer)的討論,我面臨着由於碎片而導致的問題 - 我需要重建整個流(或進行碎片整理)以獲得完整的HTTP數據包,這是我需要一些幫助的地方。 感謝預期!
我在看着Paul S Randal的索引碎片視頻here。在錄像中,保羅說GUID or other random values as high-order key will cause page splits which in turn will cause index fragmentation。原因在於,隨機值意味着新記錄將被插入到隨機頁面中,這可能會導致在隨機頁面上進行頁面拆分。我的問題: