0
我想連接Scrapy中的多個蜘蛛,以便一個餵食另一個蜘蛛。我意識到Scrapy用於連接解析函數並使用請求的Meta參數來溝通項目的方式。scrapy中的連環蜘蛛
class MySpider(scrapy.Spider):
start_urls = [url1]
def parse(self, response):
# parse code and item generated
yield scrapy.Request(url2, call_back=self.parse2, meta={'item': item})
def parse2(self, response):
item = response.meta['item']
# parse2 code
但我有一個很長的解析函數列表來連接,這增加的複雜性將更加模塊化,更容易調試多蜘蛛。
謝謝!比的cronjob schedulibg其他
只是設置一些'cron'與我想的處決,大約從一個蜘蛛將信息傳遞給另一我會更好地處理它在單獨的文件,dbs等。 – eLRuLL