python爬虫写文件编码

本文详细介绍了使用Python进行网页内容爬取并处理乱码问题的方法,包括获取网页编码、统一编码写入文件的过程。适用于在面对不同编码格式的网页时,确保数据准确无误地被收集和保存。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

情况介绍

  最近需要爬取网页上的内容,并且保存下来,在把抓取到的信息写入文件的时候,会出现乱码,需要做转码等处理,用的是python
  解决的思路大概是这样的:

  1. requests.get()获取网页的内容
  2. 根据网页,获取编码方式
  3. 解码后,统一用utf-8的编码写入文件内,因为gbk编码的时候,查看文件均是乱码

代码

import requests
from bs4 import BeautifulSoup
import codecs

#get content
def getContent(url):
    r = requests.get(url)
    return r.content

#get code set
def getCodeSet(content):
    soup = BeautifulSoup(content,'html.parser')
    return soup.original_encoding

#write
def writeToFile(content,path,codeSet):
    f = codecs.open(path,'w',codeSet)
    f.write(content.decode(codeSet).encode('utf-8').decode('utf-8'))
    f.close()

if __name__ == '__main__':
    content = getContent('http://item.jd.com/1076647290.html')
    codeSet = getCodeSet(content)
    writeToHtml(content,'test.html',codeSet)
  上面代码是抓取一个京东上的商品的网页,爬虫不一定是抓取一个网页,一般多是抓取某些重要的信息,此时只需要用beautifulsoup或者正则表达式找到信息后,把writeToFile函数传参的content改成相对应的信息就可完成正常信息的写入。
  用utf-8统一是因为编辑器用gbk打开的时候会出现乱码,所以某些gbk编码的网页都转成utf-8的形式写入文件中,方便查看信息录入是否正确
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值