Python 中beautifulsoup乱码(实际上是requests返回结果乱码)

Python 中beautifulsoup乱码(实际上是requests返回结果乱码)

for url in urls:
    resp = rq.get(url)
    # print(resp.content)
    bs = bs4.BeautifulSoup(resp.text, "html.parser")
    h1 = bs.findAll("h1")
    pattern = re.compile("^2019年(.+)招生计划$")
    pattern.match(h1[0].text)

    print(h1[0].text)  # .encode("utf8") string.decode("utf8")

    # res = bs.findAll(is_entry_class)
    res = bs.select("div.entry table")

    if res is not None:
        i = i+1
        print(i)
        for child in res[0].tbody.children:
            row = []
            for son in child.children:
                row.append(son.text)
            print("\t".join(row))
        print()

调试发现 resp 返回结果采用ISO-8859-1 编码,而实际网站中头部中字符集为utf8

<html xmlns="http://www.w3.org/1999/xhtml"><head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<title>2019年...</title>

在这里插入图片描述
调试方法:
直接修改返回结果的编码

for url in urls:
    resp = rq.get(url)
    # print(resp.content)
    resp.encoding = "utf8"
    ...
### 解决BeautifulSoup解析HTML时中文显示为乱码的方法 对于使用BeautifulSoup解析HTML文档过程中遇到的中文乱码问题,可以通过多种方法来解决。一种有效的方式是在创建`BeautifulSoup`对象的时候传递合适的编码参数。如果目标网页采用的是GBK或GB2312这样的编码标准,则可以在初始化`BeautifulSoup`实例时通过设置`from_encoding='gb18030'`来确保正确读取并转换字符集[^1]。 另外值得注意的一点是,尽管在屏幕上看到的内容似乎是乱码形式展示出来的,但实际上这些数据已经被正确地按照Unicode进行了内部表示;因此这主要是呈现层面上的问题而不是实际的数据损坏[^2]。 然而,在某些情况下,乱码可能源于请求库(如`requests`)未能准确识别响应内容的实际编码格式。为了避免这种情况的发生,建议先手动设定HTTP响应对象中的`.encoding`属性再将其文本内容交给BeautifulSoup处理。例如: ```python import requests from bs4 import BeautifulSoup response = requests.get('http://example.com') response.encoding = 'gb18030' soup = BeautifulSoup(response.text, "html.parser", from_encoding="gb18030") print(soup.prettify()) ``` 此外,当遇到因编码不一致而导致的字符丢失现象时,同样应该考虑调整编码配置以实现最佳兼容性。这是因为浏览器和服务器之间可能存在不同的默认编码约定,而这种差异可能会引起不必要的麻烦[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值