1
我有一長串需要刮取和提取數據的URL,我想用scrapy。用scrapy刮一頁
說我有一個扭曲的反應器裝置和我創造蜘蛛
runner = CrawlerRunner(scrapy_settings)
d = runner.crawl(spider_cls)
有沒有一種方法可以讓我發送URL蜘蛛所以它會處理它們?
我有一長串需要刮取和提取數據的URL,我想用scrapy。用scrapy刮一頁
說我有一個扭曲的反應器裝置和我創造蜘蛛
runner = CrawlerRunner(scrapy_settings)
d = runner.crawl(spider_cls)
有沒有一種方法可以讓我發送URL蜘蛛所以它會處理它們?
的crawl()
method可以採取額外的參數:
d = runner.crawl(spider_cls, start_urls=["url"])
有沒有辦法重用蜘蛛?爲了避免在獲取新網址時再次創建它? – AlexV
@AlexV這是一個有趣的問題!你能否創建一個單獨的問題提供所有必要的細節?謝謝! – alecxe