爬虫爬取数据时各种中文乱码问题

本文分享了在爬取中文网页内容时遇到的乱码问题及解决方案,详细介绍了如何通过调整编码格式,如gb2312、gbk、gb18030等,以及在Python中设置默认编码来解决中文乱码问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学爬虫有一段时间了,期间总是觉得内容编码会傻傻分不清楚,尤其是直接网页拿数据的时候,遇见中文有时候特别麻烦,看大神介绍的东西太多,只记下了处理方式,仅供参考,不对地方欢迎大家指正~~

一般请求返回内容编码方式步骤如下:

1、查看数据源网页的编码形式--爬取数据所在网页源代码就有写:

2、编码解析:

respond.decode(请求返回的编码格式).encode(Python默认的utf-8)

笔记中其他大神这样教,实践中大多情况我都用:respond.encode(Python默认的utf-8).decode(请求返回的编码格式)

爬取网页内容正常编译,无报错,英文均显示正常,中文乱码

最近爬取免费取名网站时候,遇见爬下来的编码正确编码后无报错,英文均显示正常,但是中文奇奇怪怪乱码情况如下图,网页编码两种情况遇见解析后如此,处理方法如下,

第一种:网页编码为gb2312 (requests的get方式获取数据)

原来处理方式(出现上图乱码),响应内容=respond.text.encode('utf-8').decode('gb2312')×

改进处理方式:    ① respond.content.decode('gb18030','ignore')  ---亲试遇见中文响应内容解析还是用这种方式好

                            ② respond.content.decode('gbk','ignore') 

                             #使用gbk2312出现报错'gbk' codec can't encode character '\u30fb' in position 12530: illegal multibyte sequence~  这是一个很尴尬的问题,第二种第一次处理也报错,后面又可以了~~~

总结:遇见中文编码decode里面,'gbk'/'gbk2312'/'gb18030'  (备用繁体编码选项没用过,可以留用'big5'/'big5hkscs')总有一款适合你 实在不行看下面↓↓↓


第二种:网页编码为utf-8 (requests的get方式获取数据)

尝试了上面n中组合形式,就是顽固的不行,终于借鉴了一些大神的方法解决掉了,decode('utf-8')确定无疑。

解决乱码:在代码之前添加默认设置编码格式

sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='gb18030')
url = 'https://www.yw11.com/html/qiming/xuename/2009/0929/273.html'
urlcontent = requests.get(url).content.decode('utf-8')
转自:https://blog.youkuaiyun.com/u010924297/article/details/80353440

### 如何解决Python爬虫抓取网页遇到的UTF-8编码中文乱码问题 当使用Python进行网络爬虫开发,经常遇到的一个问题是获取到的内容存在中文乱码现象。这主要是因为网页内容被以不正确的编码方式进行了解码所致。 对于这个问题,可以采取如下措施: 确保使用的`requests`库版本是最新的,以便能够更好地自动检测页面编码[^1]。如果仍然存在问题,则应该考虑手动设定解码方式。具体来说,在利用`requests.get()`函数获取响应对象之后,不要直接访问`.text`属性,而是先通过`.content`获得原始字节流数据,再显式地按照目标网站的实际编码格式(通常是`utf-8`)来进行解码操作[^5]。 下面给出一段简单的代码示例来展示这一过程: ```python import requests url = "http://example.com" headers = {'User-Agent': 'Mozilla/5.0'} # 设置请求头模拟浏览器行为 response = requests.get(url, headers=headers) # 使用 response.content 并指定 decode 方法中的编码参数 html_content = response.content.decode('utf-8') print(html_content) ``` 此外,还可以借助第三方库如`chardet`来自动探测未知网页的具体编码形式,并据此调整后续处理逻辑[^2]。安装该库后可以在程序中加入以下几行用于动态确定合适的编码方案: ```python import chardet raw_data = response.content detected_encoding = chardet.detect(raw_data)['encoding'] if detected_encoding is None: html_content = raw_data.decode('utf-8', errors='ignore') # 如果无法识别则尝试强制转换为 utf-8 编码并忽略非法字符 else: html_content = raw_data.decode(detected_encoding) ``` 最后需要注意的是,在某些情况下即使指定了正确编码也可能遭遇异常情况下的编码错误提示,这可以通过捕获异常的方式绕过这些障碍[^4]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值