2016-05-31 91 views
1

我有一長串需要刮取和提取數據的URL,我想用scrapy。用scrapy刮一頁

說我有一個扭曲的反應器裝置和我創造蜘蛛

runner = CrawlerRunner(scrapy_settings) 
d = runner.crawl(spider_cls) 

有沒有一種方法可以讓我發送URL蜘蛛所以它會處理它們?

回答

1

crawl() method可以採取額外的參數:

d = runner.crawl(spider_cls, start_urls=["url"]) 
+0

有沒有辦法重用蜘蛛?爲了避免在獲取新網址時再次創建它? – AlexV

+0

@AlexV這是一個有趣的問題!你能否創建一個單獨的問題提供所有必要的細節?謝謝! – alecxe