scrapy的日志记录有两种方式:
spider.logger.xx()和python标准库中的logger = logging.get_Logger('log information')
向日志对象写入信息就可以记录日志。
默认的日志是输出到控制台的,为了进一步处理这些日志,需要有统一的处理程序进行处理,这就是scrapy中自带的日志管理器,为了使用这个管理器,就需要在settings.py文件中进行配置。
LOG_FILE 和 LOG_ENABLED 决定日志消息目的地。
当您设置了 LOG_ENCODING ,它不会显示日志输出消息。
LOG_LEVEL 设置确定消息的严重性顺序;严重程度不高的消息将被过滤掉。
LOG_FORMAT 和 LOG_DATEFORMAT 用于指定所有消息的布局。
当您设置 LOG_STDOUT 为 true ,所有的进程的标准输出和错误消息将被重定向到日志中。
在命令行模式下也可以修改日志配置
| 1 | —logfile FILE | 覆盖 LOG_FILE |
| 2 | —loglevel/-L LEVEL | 覆盖 LOG_LEVEL |
| 3 | —nolog | 设置 LOG_ENABLED 为 false |
本文详细介绍了Scrapy框架中的日志配置方法,包括通过settings.py文件和命令行两种方式调整日志输出的位置、级别及格式。此外,还介绍了如何使用Python标准库中的logger模块进行日志记录。
839

被折叠的 条评论
为什么被折叠?



