0
我需要變成一個功能蟒蛇功能,beautifulsoup刮
#scrape
for parsed_link in soup.findAll('a', {'target':'Map'}):
links.extend(parsed_link.contents)
這在一個名爲「鏈接」列表返回結果。它可以正常工作,但我的解決方案不起作用。這是我的:
def scrape():
parsed_link = soup.findAll('a', {'target':'Map'})
links.extend(parsed_link.contents)
我哪裏錯了?所有幫助讚賞。
的完整性,這裏是代碼的其餘部分:
from selenium import webdriver
from bs4 import BeautifulSoup as bs
path_to_chromedriver = r'C:\Users\Kane\Desktop\chromedriver_win32\chromedriver.exe'
browser = webdriver.Chrome(executable_path = path_to_chromedriver)
url = 'http://www.fieldmycology.net/FRDBI/FRDBIrecord.asp?intGBNum=1511'
browser.get(url)
html = browser.page_source
soup = bs(html, 'html.parser')
links = []
for parsed_link in soup.findAll('a', {'target':'Map'}):
links.extend(parsed_link.contents)
我會通過標籤和目標,以及,只爲靈活的代碼。 –
@cᴏʟᴅsᴘᴇᴇᴅ你可以這樣做,我不只是爲了簡單 – Jerfov2
在第二個更通用的解決方案中添加沒有任何問題:-) –