作为一个程序员一定要按标准来
现在我来教大家写一种在scrapy框架中持久化到mongdb官方推荐写法
好了来看过来重点来了首先打开scrapy中的pipelines.py
import pymongo #首先导入pymongdb包
class ZlsPipeline(object):
def __init__(self, mongo_uri, mongo_db):
self.mongo_uri = mongo_uri
self.mongo_db = mongo_db
@classmethod
def from_crawler(cls, crawler):
return cls(
mongo_uri=crawler.settings.get('MONGO_URI'),
mongo_db=crawler.settings.get('MONGO_DB'),
)
def open_spider(self, spider):
self.client = pymongo.MongoClient(self.mongo_uri)
self.db = self.client[self.mongo_db]
def process_item(self, item, spider):
self.db['mv'].insert_one(dict(item))
return item
def close_spider(self, spider):
self.client.close()
你以为这样就完了 还没有 来看这里
在settings.py中配置这两行代码才算完
MONGO_URI = 'localhost'
MONGO_DB = 'mongdb库名称'
一定要做个精致的程序员哦