3
我遇到mechanize
的timeout
功能問題。在大多數網頁上,它可以很好地工作,如果URL在合理的時間內無法加載,則會產生一個錯誤:urllib2.URLError: <urlopen error timed out>
。但是,在某些頁面上,定時器不起作用,即使對於鍵盤中斷,程序也不響應。這裏是一個示例頁面,發生這種情況:機械化瀏覽器超時不工作
import mechanize
url = 'https://web.archive.org/web/20141104183547/http://www.dallasnews.com/'
br = mechanize.Browser()
br.set_handle_robots(False)
br.addheaders = [('User-agent', 'Firefox')]
html = br.open(url, timeout=0.01).read() #hangs on this page, timeout set extremely low to trigger timeout on all pages for debugging
首先,這個腳本是否爲這個特定的URL的其他人掛起?其次,可能會出現什麼問題/我該如何調試?
機械化工作正常,在網站的其餘部分。問題不在於獲得結果,而是在達到超時時未能終止。 – Michael 2014-11-14 21:54:59
http://stackoverflow.com/questions/3552928/how-do-i-set-a-timeout-value-for-pythons-mechanize。要正確實現超時,我會檢查這個鏈接 – Dap 2014-11-14 22:15:29