可能重複:
How can I speed up fetching pages with urllib2 in python?檢索多個URL一次/並行
我有一個下載網頁中的python腳本,分析它,並從頁面返回一定的價值。爲了得到最終結果,我需要抓幾頁這樣的頁面。每頁檢索需要很長時間(5-10s),我寧願並行發出請求以減少等待時間。
問題是 - 哪種機制可以快速,正確地執行並且CPU /內存浪費最小?扭曲,異步,線程,別的東西?你能提供一些與例子的鏈接嗎?
謝謝
UPD:有幾個解決方案的問題,我正在尋找速度和資源之間的妥協。如果你可以講述一些經驗細節 - 從你的觀點來看它是如何快速加載的 - 這會非常有幫助。
在這裏看到我的答案http://stackoverflow.com/questions/3491455 – 2010-08-20 13:26:58