在parse_items
這個代碼在我的蜘蛛我如何使用Itempipeline在scrapy保存項目數據庫
def parse_items(self, response):
hxs = HtmlXPathSelector(response)
sites = hxs.select("//li[@class='mod-result-entry ']")
items = []
for site in sites[:2]:
item = MyItem()
item['title'] = myfilter(site.select('dl/a').select("string()").extract())
item['company'] = myfilter(site.select('dl/h2/em').select("string()").extract())
items.append(item)
return items
現在我要保存使用Django模型dtabase的項目。這是工作的罰款SI的一種方式,我的simpy使用這樣
item = MYapp.MyDjangoItem()
item.title = myfilter(site.select('dl/a').select("string()").extract())
item.save()
現在這是工作的罰款
現在我想知道這是在數據庫中保存該法測得的。
我的意思是爲什麼我們需要在scrapy中描述的itempipeline事物。這有沒有什麼好處。
杉木E,G,這是我pipleline
class MyPipeline(object):
def __init__(self):
self.ids_seen = set()
def process_item(self, item, spider):
Myitem = Myapp.DjamgoItem()
Myitem.title = item['title']
MyItem.save()
是正常的
又怎麼會我的代碼將調用此管道。我很困惑