2017-05-07 29 views
0

爲了達到最優化的目的,我需要我的蜘蛛跳過曾經超時的網站,並且不要讓scrapy查找它並一次又一次地嘗試。如何禁止scrapy重試超時網站?

這是如何實現的?

謝謝。

回答

-1

我才發現,在 設定集: 「RETRY_ENABLED =假」,將照顧它:)