0
我在使用urllib2獲取一些庫存信息。使用Python的urllib2連接網址
我的一些代碼如下。
cap_url = "http://wisefn.stock.daum.net/company/c1010001.aspx?cmp_cd=%s" % code
cap_req = urllib2.Request(cap_url)
cap_data = urllib2.urlopen(cap_req).read()
~
~
~
depr_url = "http://wisefn.stock.daum.net/company/cF3002.aspx?cmp_cd=%s&frq=Q&rpt=ISM&finGubun=MAIN" % code
depr_req = urllib2.Request(depr_url)
depr_data = urllib2.urlopen(depr_req).read()
~
~
~
transaction_url = "http://www.shinhaninvest.com/goodicyber/mk/1206.jsp?code=%s" % code
transaction_data = urllib2.urlopen(transaction_url).read()
soup = BeautifulSoup(transaction_data, fromEncoding="utf-8")
如您所知,%s是股票代碼。憑藉給定的股票代碼,我颳了所有的股票信息。股票代碼總數超過1,600。然後我用xlwt將收集的信息寫入Excel。
但是,我無法連接到某個網址或獲取有關我可以手動輸入該網址的信息。
有什麼問題?我怎樣才能加快抓取頁面?
當你超出限制時,你很可能會刮掉你的連接,無論它們是什麼。我相信你不是第一個嘗試這個的人...... –
謝謝你的解釋。現在我認爲代理服務器超出連接限制。 – trigger