0
我升級我scrapy到0.18.4版本,但我發現以前的腳本來設置單獨的日誌文件中的每個蜘蛛現在無法正常工作。個人日誌文件*
#spider/toy_spider.py
def __init__(self,name=None,**kwargs):
LOG_FILE = "log/production_%s.log" % (self.name)
log.log.defaultObserver = log.log.DefaultObserver()
log.log.defaultObserver.start()
log.started = False
log.start(LOG_FILE)
super(MySpider, self).__init__(name, **kwargs)
它適用於scrapy 0.14.4,但不適用於0.18.4。當我運行「scrapy爬行toy_spider」,這似乎是在一些無限循環和消息的樣子:
2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [PopAppAnnie4Itune] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
我必須手動終止進程。
感謝您的回答。 '--set LOG_FILE ='現在可以完成這項工作。出於好奇,我怎麼才能讓擴展工作? – Arnold
對,我已經用相關設置更新了答案以啓用擴展。 – Rolando