如何配置scrapy以毫無延遲地寫入csv。Scrapy無延遲地寫入csv
如果我運行了scrapy crawl spider_1
並且假設spider_1
有預期的200個項目,那麼scrapy將會以csv寫入,但是按批次寫入。我不知道在哪裏配置這個。
我試過
CONCURRENT_REQUESTS = 1
CONCURRENT_ITEMS = 1
但它仍然在csv文件通過15+批次寫道。
這裏是他們的方式我測試了它..
while sleep 2; do cat results/price.csv | wc -l; done;
結果
0
35
35
35
35
52
52
52
52
70
70
注意,它寫入第一32th
項目則20th
然後18th
。
我想要的是在獲取數據後立即寫入項目。 我該怎麼做?
scrapy不做同步請求。它發出很多請求並等待響應。因此你不會得到序列輸出。 –
你可能想看看['CsvItemExporter'](https://github.com/scrapy/scrapy/blob/dfe6d3d59aa3de7a96c1883d0f3f576ba5994aa9/scrapy/exporters.py#L206)是如何實現的,尤其是, '.export_item()'。 –
我有類似的問題。我做了什麼,我把所有的數據寫入mongodb,然後寫出所有的數據 –