1
當我的Scrapy爬蟲完成後,我想再次自動啓動相同的爬蟲。 這可以通過Scrapy函數來完成,還是必須使用Cronjob例如crontab的?Scrapy重新啓動爬蟲當爬行完成
當我的Scrapy爬蟲完成後,我想再次自動啓動相同的爬蟲。 這可以通過Scrapy函數來完成,還是必須使用Cronjob例如crontab的?Scrapy重新啓動爬蟲當爬行完成
只是一個正常的Scrapy運行不能做到這一點,除非你禁用愚蠢過濾器和下載一個頁面重新請求同一頁面。這是一個hacky解決方案,但從技術上說它會工作。
在循環中運行的Cronjob或Bash腳本可以做到這一點。
因此無法檢查抓取工具是否已完成並再次開始批處理?禁用愚蠢過濾器將工作,但如何重新請求相同的頁面? – user2908623
如果我將唯一= False添加到我的規則中,該怎麼辦? – user2908623
或者如何將DUPEFILTER_CLASS ='scrapy.dupefilter.BaseDupeFilter'添加到settings.py? – user2908623