2012-12-28 55 views
8

我是新的python和scrapy。我打算遵循Scrapy教程,但我不明白storage step的邏輯。Scrapy:存儲數據

scrapy crawl spidername -o items.json -t json 

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv 

我不明白的意義:

  • -o
  • -t
  • --set

謝謝您的幫助

回答

22

你可以通過輸入來查看可用命令的列表從您的項目目錄中。

scrapy crawl spidername -o items.json -t json 
  • -o指定傾倒物品(items.json)輸出文件名
  • -t指定傾倒物品(JSON)

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv

  • --set是格式用於設置/覆蓋設置
  • FEED_URI用於設置項目轉儲的存儲後端。在這種情況下它被設置爲「output.csv」這是使用本地文件系統,即一個簡單的輸出文件(例如電流 - output.csv)。
  • FEED_FORMAT用於設置串行化格式的(輸出)進料即(對於當前的例子CSV)

參考文獻(Scrapy文檔):

  1. Available tool commands (for the command line)
  2. Feed exports
+0

所以這兩行是等價的,如果第一個,我把'item.json'換成'output.csv'和'json'換成'csv'? – Stephen

+2

這是正確的。或者,您可以將FEED_URI和FEED_FORMAT添加到settings.py文件,然後只需鍵入'scrapy crawl spidername'而不使用其他參數。 – Talvalin

+1

如果問題覆蓋了問題,請接受此答案,或者告訴我是否有任何可以改進答案的方法。 :) – Talvalin