2013-10-22 71 views

回答

1

只是一個正常的Scrapy運行不能做到這一點,除非你禁用愚蠢過濾器和下載一個頁面重新請求同一頁面。這是一個hacky解決方案,但從技術上說它會工作。

在循環中運行的Cronjob或Bash腳本可以做到這一點。

+0

因此無法檢查抓取工具是否已完成並再次開始批處理?禁用愚蠢過濾器將工作,但如何重新請求相同的頁面? – user2908623

+0

如果我將唯一= False添加到我的規則中,該怎麼辦? – user2908623

+0

或者如何將DUPEFILTER_CLASS ='scrapy.dupefilter.BaseDupeFilter'添加到settings.py? – user2908623