好的,我需要使用Python下載一些網頁,並對我的選項進行了快速調查。哪個在Python中最好:urllib2,PycURL還是機械化?
包括在Python:
urllib - 在我看來,我應該使用的urllib2。 urllib沒有cookie支持,僅支持HTTP/FTP /本地文件(不支持SSL)
urllib2 - 完整的HTTP/FTP客戶端,支持cookies等)
全功能:
mechanize - 可以使用/保存火狐/ IE的cookies,需要像跟隨第二環節,積極維護(0.2.5於2011年3月發佈)的行動
PycURL - 支持curl所做的一切(FTP,FTPS,HTTP,HTTPS,GOPHER,TELNET,DICT,FILE和L DAP),壞消息是:沒有更新自2008年9月9日(7.19.0)
新的可能性:
urllib3 - 支持連接重新使用/池和文件發佈
已過時(亦稱使用的urllib/urllib2的替代):
httplib - HTTP/HTTPS(不使用FTP)
httplib2 - HTTP/HTTPS(不使用FTP)
令我驚訝的是,urllib的/ urllib2的第一件事/ PycURL /機械化都是相當成熟的解決方案,運行良好。機械化和PycURL附帶許多Linux發行版(例如Fedora 13)和BSD,所以安裝通常不是問題(所以這很好)。
urllib2看起來不錯,但我想知道爲什麼PycURL和機械化兩者似乎非常受歡迎,有沒有我缺少的東西(即如果我使用urllib2我會在某個角落畫一個角落?)。我真的很喜歡這些東西的利弊反饋,所以我可以爲自己做出最好的選擇。
編輯:在urllib2的
「最好」是什麼意思?最好的是什麼?最快的?最大?最好使用Cookie?你需要做什麼? – 2010-03-05 11:03:40
httplib不是「已棄用」。它是urllib2構建於其上的較低級別的模塊。你可以直接使用它,但通過urllib2 – 2010-03-05 16:48:11
更容易。 urllib3是httplib之上的一個圖層。此外,httplib2不被棄用 - 實際上它比urllib2更新,並修復了連接重用問題(與urllib3相同)。 – Yang 2011-04-21 01:03:49