class PractiseSpider(scrapy.Spider):
name = "practise"
allowed_domains = ["practise.com"]
start_urls = ['https://practise.com/product/{}/']
def parse(self, response):
#do something
#scrape with next url in the list
我的目錄m
採取的url包含需要像product/{}/.format(m[i])
反覆添加的URL。 我該怎麼做。我應該爲每個Url創建新的蜘蛛調用,還是應該爲蜘蛛編寫一些代碼來自動迭代列表。如果答案是後者,我該寫什麼?刮使用Scrapy使用從列表
我知道有很多與此相關的答案,例如, this但我有一個固定的和已知的網址列表。
OK,然後怎麼辦遍歷start_urls – twitu
名單@twitu您不需要,Scrapy會爲您處理它 - 它會從'start_urls'中抓取所有網址,並用響應調用您的'parse'方法。 –