urlopen

    1熱度

    2回答

    我正在處理下載網頁的Python 2.7中的腳本。大多數情況下,一切都按計劃進行。鑑於這個腳本有數以千計的網頁可供下載,當事情不能解決時,不可避免地會出現幾次。腳本在URLError或HTTPError事件中放棄並繼續前進,但有時候一切都會掛起,並且需要手動敲擊Ctrl-Z或Ctrl-C才能停止此操作。有問題的代碼: f = urlopen (url) local_file = open

    1熱度

    3回答

    我使用了urllib.urlopen與Python 2.7讀取位於外部Web服務器的CSV文件: # Try & Except statements removed for clarity import urllib import csv url = ... csv_file = urllib.urlopen(url) for row in csv.reader(csv_file):

    12熱度

    3回答

    我使用的urllib2加載網頁,我的代碼是: httpRequest = urllib2.Request("http:/www....com") pageContent = urllib2.urlopen(httpRequest) pageContent.readline() 我怎樣才能插座屬性保持設置TCP_NODELAY? 在正常插座我將使用功能: socket.setsockopt(

    0熱度

    2回答

    我在這串字符串結果是URL www.test.com 我知道,在www.test.com與數的網站。我將把它作爲一個整數保存在我的程序中。 import urllib giveTheInt = [urllib.urlopen(url)] 但我只收到: IOError: [Errno socket error] [Errno 110] Connection timed out. 這是確定的

    0熱度

    2回答

    當我將機場設置爲一個變量時,我可以獲取文本文件。但是,如何獲取多個機場代碼的文本文件並顯示信息? airport = 'KSFO, KSJC, KOAK' for metar in urlopen('http://weather.noaa.gov/pub/data/observations/metar/stations/%s.TXT' %airport): metar = meta

    1熱度

    1回答

    我試圖使用urllib2.urlopen(實際上,我正在使用mechanize,但這是mechanize調用的方法)獲取頁面當我獲取頁面時,我收到的不完整響應;該頁面被截斷。但是,如果我訪問該頁面的非HTTPS版本,則會顯示完整頁面。 我在Arch Linux上(3.5.4-1-ARCH x86_64)。我正在運行openssl 1.0.1c。這個問題發生在我自己的另一臺Arch Linux機器上

    -2熱度

    1回答

    Web播放本網站http://rockantenne.de/webplayer有可用的所有歌曲的播放列表發揮迄今爲止的那一天。 當我在火狐,然後按Ctrl-U看到的網頁的源代碼,我可以看到所有的歌曲播放。但是,如果我用urllib2.urlopen,然後閱讀()它,一切是一樣的,除了歌曲被排除在外。 誰能告訴我這裏有什麼問題嗎? 感謝

    12熱度

    5回答

    我試圖獲取以下網頁: import urllib urllib.urlopen("http://www.gallimard-jeunesse.fr/searchjeunesse/advanced/(order)/author?catalog[0]=1&SearchAction=1").read() 結果不符合我所看到的檢查使用谷歌瀏覽器,例如網頁的源代碼時。 你能告訴我爲什麼會發生這種情況,

    0熱度

    3回答

    我是python的新手,需要您的建議。 我需要獲取由php/java/ajax生成的論壇頁面的內容。 該代碼包含由php/java/ajax添加到頁面的所有元素。 是否可以閱讀完整的頁面源代碼? urlopen()只給出原始的源代碼。

    2熱度

    1回答

    我試過了幾次搜索,我不認爲這有問題,但如果這是重複請原諒我。我試圖使用python-2.7上的urllib從網頁中讀取。非常簡單的應用程序,我想要做的就是從頁面中獲取一些文本。不幸的是,下面的代碼: import urllib address = "http://google.co.uk" page = urllib.urlopen(address) 返回一個錯誤,在講「散列碼」不被發現: