python爬虫学习之小说抓取1

本文分享了使用Python爬虫抓取小说时遇到的问题及解决方法,包括避免乱码问题和正确拼接章节URL,为爬虫初学者提供实用经验。

爬虫学习的一点心得

任务:抓取某小说并下载

抓取:requests

解析:xpath,正则表达式

1.获取小说索引页源代码时,出现乱码,试了很多方法都不行,最后找到原因是请求头中有一参数

'accept-encoding':'gzip, deflate, br'

普通浏览器访问网页,之所以添加:

"Accept-Encoding" = "gzip,deflate"

那是因为,浏览器对于从服务器中返回的对应的gzip压缩的网页,会自动解压缩,所以,其request的时候,添加对应的头,表明自己接受压缩后的数据。

而此代码中,如果也添加此头信息,结果就是,返回的压缩后的数据,没有解码,而将压缩后的数据当做普通的html文本来处理,当前显示出来的内容,是乱码了。

删除这一参数就可以了

 2.索引页抓取每一章节小说的url链接地址,源码中显示的地址只有一部分,需要进行拼接才是完整的url地址

 

转载于:https://www.cnblogs.com/tian2B/p/10878235.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值