2017-08-09 61 views
1

我需要建立與列表中不同網站的連接。只爲該網站發送一些數據包和嗅探數據包,直到我不去下一個網站(迭代)。當我進入下一個迭代(網站)時,我只想嗅探並過濾該地址。我可以在一個Python代碼中實現嗎?發送數據包並在相同的python代碼中嗅探

sniff(filter="ip and host " + ip_addr,prn=print_summary) 
req = "GET/HTTP/1.1\r\nHost: "+ website +"\r\nConnection: keep-alive\r\nCache-Control: max-age=0\r\nUpgrade-Insecure-Requests: 1\r\nUser-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/58.0.3029.110 Chrome/58.0.3029.110 Safari/537.36\r\nAccept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8\r\nAccept-Language: en-US,en;q=0.8\r\n\r\n" 
url = (website, 80) 
c = socket.socket(socket.AF_INET, socket.SOCK_STREAM, proto=socket.IPPROTO_TCP) 
c.settimeout(5.0) 
c.connect(url) 
c.setsockopt(socket.SOL_IP, socket.IP_TTL, i) 
c.send(req) 
print str(c.recv(4096)) 
c.close() 

我正在循環運行上面的代碼。但是在第一次運行期間,它吸收了嗅探功能。誰能幫我這個?

+0

你使用這段代碼來檢查網站是否啓動? – Stack

+0

nope,我會用它來做一些分析目的。爲此,我想在連接設置過程中分析數據包以查找網站列表,並找出一些事實。 – tarun14110

+0

什麼是「嗅探()」?它在哪裏定義? – randomir

回答

1

好的我編輯了答案。

單個網站的嗅探數據包並不容易,因爲scrapy使用的Berkley Packet Filter語法沒有HTTP的簡單選項。有關可用選項的一些建議,請參閱this question

一種可能性是從您的Web代理服務器嗅探TCP數據包;我在下面的代碼示例中完成了這項工作,它將TCP數據包保存爲各個指定文件的不同URL列表。我沒有放入任何邏輯來檢測頁面加載完成時,我只用了60秒的超時時間。如果你想要不同的東西,那麼你可以用它作爲一個起點。如果您沒有代理服務器進行嗅探,那麼您需要更改bpf_filter變量。

NB,如果你要保存原始數據包數據,而不是轉換到字符串版本,然後修改相關行(這是在代碼註釋。)

from scapy.all import * 
import urllib 
import urlparse 
import threading 
import re 

proxy = "http://my.proxy.server:8080" 
proxyIP = "1.2.3.4" # IP address of proxy 

# list of URLs 
urls = ["http://www.bbc.co.uk/news", 
     "http://www.google.co.uk"] 

packets = [] 

# packet callback 
def pkt_callback(pkt): 
    packets.append(pkt) # save the packet 

# monitor function 
def monitor(fname): 
    del packets[:] 
    bpf_filter = "tcp and host " + proxyIP  # set this filter to capture the traffic you want 
    sniff(timeout=60, prn=pkt_callback, filter=bpf_filter, store=0) 
    f=open(fname+".data", 'w') 
    for pkt in packets: 
     f.write(repr(pkt)) # or just save the raw packet data instead 
     f.write('\n') 
    f.close() 

for url in urls: 
    print "capturing: " + url 
    mon = threading.Thread(target=monitor, args=(re.sub(r'\W+', '', url),)) 
    mon.start() 
    data = urllib.urlopen(url, proxies={'http': proxy}) 
    # this line gets IP address of url host, might be helpful 
    # addr = socket.gethostbyname(urlparse.urlparse(data.geturl()).hostname) 
    mon.join() 

希望這給你一個好的起點。

+0

假設我在一些網站列表的循環中執行'urllib.urlopen'。當我連接到特定的網站時,我只想嗅探那個網站的數據包(可能是一個ip.addr過濾器,它會在每次迭代中更改),計算一些數據併爲每個網站單獨存儲數據。你能幫我解決這個問題嗎? – tarun14110

+0

@ tarun14110我編輯了這個答案,但您可能需要爲scrapy過濾器(BPF格式)嘗試不同的設置, –