我在scrapy中寫了一個蜘蛛&我成功地通過python腳本運行它。 的問題,同時通過scrapy提示符下運行蜘蛛我們提供像 「-o ScrapedData.json -t JSON」 agruments我想運行 「scrapy爬myspider -o ScrapedData.json -t JSON」 通過Python腳本。 任何幫助是高度讚賞。提前致謝!從scrapy參數的腳本中運行Scrapy蜘蛛
0
A
回答
0
-o ScrapedData.json
覆蓋FEED_URI
設置- 和
-t json
覆蓋FEED_FORMAT
設置
(見https://github.com/scrapy/scrapy/blob/master/scrapy/commands/crawl.py#L24)
所以,從腳本運行的蜘蛛時,你應該看看覆蓋這些2個設置。
0
您的意思是?
from scrapy import cmdline
cmdline.execute("scrapy crawl myspider -o ScrapedData.json -t json".split())
相關問題
- 1. 從scrapy腳本運行多個蜘蛛
- 2. Scrapy與Scrapy蜘蛛
- 3. Scrapy - 運行蜘蛛多次
- 4. Scrapy - 調用蜘蛛從其他腳本
- 5. scrapy:蜘蛛中的小蜘蛛?
- 6. Scrapy從主蜘蛛運行多個蜘蛛?
- 7. Scrapy DOMAIN_NAME的蜘蛛
- 8. Python的scrapy蜘蛛
- 9. 在scrapy中運行多個蜘蛛
- 10. Scrapy蜘蛛不爬行
- 11. scrapy中的連環蜘蛛
- 12. 如何將多個參數傳遞給Scrapy蜘蛛(不再支持多個蜘蛛運行'scrapy爬行'錯誤)?
- 13. 運行scrapy蜘蛛與蟒蛇
- 14. 更新Scrapy後,蜘蛛無法運行
- 15. 傳遞參數給一個Python腳本內scrapy蜘蛛
- 16. Scrapy蜘蛛Xpath的選擇
- 17. 本地運行Scrapy中的所有蜘蛛
- 18. scrapy蜘蛛碼校驗
- 19. Scrapy蜘蛛不工作
- 20. Scrapy雅虎集團蜘蛛
- 21. Scrapy找不到蜘蛛
- 22. Scrapy蜘蛛過早關閉
- 23. scrapy蜘蛛沒有發現
- 24. Scrapy CrawlSpider沒有蜘蛛
- 25. Scrapy蜘蛛登錄問題
- 26. Scrapy管理動態蜘蛛
- 27. Scrapy蜘蛛錯誤處理
- 28. (Python,Scrapy)將txt文件中的數據轉換爲Scrapy蜘蛛
- 29. 從腳本調用Scrapy蜘蛛 - 無法關閉反應堆?
- 30. Scrapy,沒有錯誤,蜘蛛爬行
不知道如果我的問題是正確的,但你可能想看看python的'subprocess'模塊。 – Michael