我運行下面的代碼來下載網頁中的所有文件,所有文件:蟒蛇下載網頁中的
import os
import urllib
from lxml import html
def main():
os.chdir("Downloads/")
url = "http://standards.iso.org/ittf/PubliclyAvailableStandards/ISO_IEC_14496-26_2010_Bitstreams/DVD1/mpeg4audio-conformance/compressedMp4/"
page = html.fromstring(urllib.urlopen(url).read())
for link in page.xpath("//a"):
filelink = "http://standards.iso.org/" + link.get("href")
print "download",filelink
runme("wget " + filelink)
return
if __name__ == '__main__':
main()
但我想這是不是最好的,我怎麼能以更少的代碼行改進呢?
添加代碼,使用網址,以獲取主機名,不要硬編碼。 – lucky1928
如果你唯一的目標是減少行數,除了可能使用一些更加現代化的圖書館來輔助像'python-requests'和'BeautifulSoup 4'這樣的工作,或者甚至像Scrapy'這樣的一些完整的工具集,你的唯一目標就是減少行數。然而,如果你想爲速度和/或更少的錯誤進行優化,那麼我首先要問的是你的'runme'是否是異步執行的,當'filelink'是一個畸形的鏈接時它是否處理。 – woozyking