import scrapy
from scrapy import spider
logger = logging.getLogger('mylogger') ###命名自己的日志文件名
class ZgdSpider(spider):
name = 'zgd'
start_urls = ['http://www/.XXXXX.com']
def parse(self, response):
logger.info('parse function call on %s' ,response.url)
或者:
import scrapy
from scrapy import spider
class ZgdSpider(spider):
name = 'zgd'
start_urls = ['http://www/.XXXXX.com']
def parse(self, response):
self. logger.info('parse function call on %s' ,response.url)需要在settingspy设置log的各个模块
本文介绍了一个使用Scrapy框架实现的基础爬虫示例,通过定义爬虫类和解析方法来抓取网页数据,并记录日志信息。
395

被折叠的 条评论
为什么被折叠?



