我有一組50個url ...並且從每個url中,我使用urllib2檢索一些數據。我下面(包括每個URL設置Cookie),該流程進行如下:替換爲urllib2
urls = ['https://someurl', 'https://someurl', ...]
vals = []
for url in urls:
req2 = urllib2.Request(url)
req2.add_header('cookie', cookie)
response = urllib2.urlopen(req2)
data = response.read()
vals.append(json.loads(data))
所以,基本上我從所有這些URL中檢索數據並在丘壑列表爲之傾倒。整個過程需要大約15.5到20秒。我需要知道是否有任何其他的python庫,我可以通過它執行相同的操作,但速度更快。或者如果你們可以使用urllib2提出任何其他更快的方法來處理這個問題,那麼它會沒事的以及。謝謝。
你應該嘗試使用'requests'。這使得很多這些事情更容易管理。 (請注意,它不會解決*性能*問題,只需要更好的代碼。) –
Chris,你可以用任何單個示例來詳細說明嗎? – user2480542