【软件实践系列】关于Python爬虫应用中常见的问题

本文解决了一个常见的UnicodeDecodeError问题,通常出现在爬虫程序中当尝试读取并解码非utf-8编码的网页内容时。文章详细介绍了如何通过检查和调整爬虫的头部设置来避免错误,特别指出注释掉Accept-Encoding可以防止网页被压缩,从而避免解码错误。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

常见的问题

  1. 问题: UnicodeDecodeError:‘utf-8’ codec can’t decode byte 0x8b in position 1: invalid start byte
    解决方案
    (针对网页压缩)
    1. 先使用print(……)函数确认一下,是否是网页的压缩所导致的,即输出的内容为乱码,非\0x88之类的编码
    ……#省略
    req = urllib.request.Request(item,headers)
        html = urllib.request.urlopen(req)
        doc = html.read().decode('utf8')
    ……#省略
    
    1. 如果是,注释掉爬虫应用变量 headers 的"Accept-Enncoding"这一行,如下例所示;
      注意:使用IDE工具的搜索一下爬虫项目即可找到该行。
    header = {
    ……#省略
    # "Accept-Encoding":"gzip, deflate"
    ……#省略
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值