urllib

    10熱度

    1回答

    我正在使用urllib2的urlopen函數嘗試從StackOverflow API獲取JSON結果。 我正在使用的代碼: >>> import urllib2 >>> conn = urllib2.urlopen("http://api.stackoverflow.com/0.8/users/") >>> conn.readline() 結果我得到: '\x1f\x8b\x08\x00\

    21熱度

    3回答

    我真的很想弄清楚爲什麼這段代碼在Python 2中工作,而不是在Python 3中工作。我只是想抓住一個json頁面,然後解析它。下面是在Python 2代碼: import urllib, json response = urllib.urlopen("http://reddit.com/.json") content = response.read() data = json.loads

    2熱度

    2回答

    我的Python應用程序使用urllib2模塊發出大量HTTP請求。此應用程序可能用於非常不可靠的網絡,其中延遲可能很低,丟包和網絡超時可能非常普遍。是否可以覆蓋urllib2模塊的一部分,以便在引發任何異常之前將每個請求重試X次?有沒有人看過類似的東西? 我可以做到這一點,而無需修改我的整個應用程序,只需創建一個包裝urllib2模塊。因此任何使用這個模塊的代碼發出請求都會自動使用重試功能。 謝

    0熱度

    1回答

    我正在處理一個小項目,並遇到一個小問題。我所需的腳本需要獲取網站並在源HTML文件中查找特定值。值是這樣的: id='elementID'> <fieldset> <input type='hidden' name='hash' value='e46c945fe32a3' /> </fieldset> 現在,我一直在嘗試使用ElementTree庫來解析HTML文檔發現價值,但

    0熱度

    1回答

    我的程序沒有正確的應該是運行... 我得到的唯一的的urlopen錯誤消息(除部分)與代理...爲什麼呢? 至少,代理的一個測試和正常工作... 請,有人採取這裏的代碼一看: http://pastebin.com/cBfv5H8J 編輯: 代碼不起作用在第一次嘗試的一部分,這一 try: h = urllib.urlopen(website, proxies = {'http':

    1熱度

    2回答

    我希望我的Python腳本通過腳本中指定的IP訪問URL,而不是通過域的默認DNS訪問URL。基本上我希望等同於向我的/ etc/hosts文件添加條目,但我希望更改僅適用於我的腳本,而不是整個服務器上的全局腳本。有任何想法嗎?

    8熱度

    3回答

    我需要使用Python從網頁中提取元關鍵字。我在想這可以使用urllib或urllib2來完成,但我不確定。有人有主意嗎? 我使用Python 2.6在Windows XP

    4熱度

    2回答

    我寫了一個腳本,與代理(py2.6x)工作原理: proxy_support = urllib2.ProxyHandler({'http' : 'http://127.0.0.1:80'}) 但在py3.11x沒有urllib2的只是一個urllib的...和不支持ProxyHandler 如何使用代理與urllib? Python 2是不是Python 2然後Python 2?爲什麼他們刪除

    6熱度

    3回答

    爲什麼不是這個簡單的Python代碼工作? import urllib file = urllib.urlopen('http://www.google.com') print file.read() 這是我的錯誤: Traceback (most recent call last): File "C:\workspace\GarchUpdate\src\Practice.py"

    1熱度

    2回答

    我試圖用Python 3.1打開一個網址時出錯,urllib的& JSON urllib.error.URLError: 下面的代碼。第一個網站加載正常。第二個 import json import urllib.request import urllib.parse import util # This one works fine response = urllib.request