我有一個scrapy蜘蛛,使用XMLFeedSpider
。除了爲parse_node()
中的每個節點返回的數據外,我還需要額外請求獲取更多數據。唯一的問題是,如果我得到來自parse_node()
沒有額外的請求被退回所有:Scrapy - 無法提出額外的請求在XMLFeedSpider
class MySpidersSpider(XMLFeedSpider):
name = "myspiders"
namespaces = [('g', 'http://base.google.com/ns/1.0')]
allowed_domains = {"www.myspiders.com"}
start_urls = [
"https://www.myspiders.com/productMap.xml"
]
iterator = 'iternodes'
itertag = 'item'
def parse_node(self, response, node):
if(self.settings['CLOSESPIDER_ITEMCOUNT'] and int(self.settings['CLOSESPIDER_ITEMCOUNT']) == self.item_count):
raise CloseSpider('CLOSESPIDER_ITEMCOUNT limit reached - ' + str(self.settings['CLOSESPIDER_ITEMCOUNT']))
else:
self.item_count += 1
id = node.xpath('id/text()').extract()
title = node.xpath('title/text()').extract()
link = node.xpath('link/text()').extract()
image_link = node.xpath('g:image_link/text()').extract()
gtin = node.xpath('g:gtin/text()').extract()
product_type = node.xpath('g:product_type/text()').extract()
price = node.xpath('g:price/text()').extract()
sale_price = node.xpath('g:sale_price/text()').extract()
availability = node.xpath('g:availability/text()').extract()
item = MySpidersItem()
item['id'] = id[0]
item['title'] = title[0]
item['link'] = link[0]
item['image_link'] = image_link[0]
item['gtin'] = gtin[0]
item['product_type'] = product_type[0]
item['price'] = price[0]
item['sale_price'] = '' if len(sale_price) == 0 else sale_price[0]
item['availability'] = availability[0]
yield Request(item['link'], callback=self.parse_details, meta={'item': item})
def parse_details(self, response):
item = response.meta['item']
item['price_per'] = 'test'
return item
如果我改變的parse_node()
到return item
正常工作的最後一行(不包括在項目設置price_per
,自然)。
任何想法我做錯了什麼?
是的,網址是解析 - 如果我調試,我可以通過瀏覽器訪問該鏈接的URL罰款。我也剛剛改變了鏈接,像「http:// httpbin.org /'這樣的任意東西,而且我的回調沒有被擊中(或者我的物品返回)。 – BrynJ