python爬虫之urllib模块的基本使用

本文详细介绍了Python自带的urllib模块的使用方法,包括request和parse两个子模块的应用,讲解了如何处理GET和POST请求,以及如何解决URL中的非ASCII字符问题。同时,文章还提到了如何通过设置User-Agent进行身份伪装,以绕过网站的反爬机制。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

urllib是python自带的基于爬虫的模块,主要使用其中的两个子模块 request和parse

1. request模块的使用

from urllib import request

# 爬取搜狗首页数据
#1 指定url
url = "https://www.sogou.com"

#2 发起请求:urlopen函数可以根据指定的url发起请求,并返回一个响应对象
response = request.urlopen(url=url)

#3 获取页面数据:read函数返回的是响应对象中的页面数据(bytes类型)
info = response.read()

#4 持久化存储
with open("sogou.html", "wb") as obj:
	obj.write(info)

2. parse模块的使用

由于url中不能含有非ASCII编码的字符,否则request发请求时会报错,但有时会出现原始url中含有非ASCII编码的字符的情况,这时就需要使用到parse模块了

from urllib import request, parse

# url = "https://www.sogou.com/web?query=计算机"(这样写解析时会报错)
url = "https://www.sogou.com/web?query="
word = parse.quote("计算机") # 转码操作
url += word # 有效的url
response = request.urlopen(url=url)
info = response.read()
with open("sogou.html", "wb") as obj:
	obj.write(info)
以上是urllib模块的最基本使用,但这些操作都只是针对GET请求的,下面我们就来看看如何发送POST请求。

还有一点需要注意,那就是网站的一些反爬机制,这里说一下User-Agent

有时网站会通过检测请求头中的User-Agent来判断是否是浏览器访问,若没有,则说明是爬虫程序,那么某些内容可能就爬取不到了,针对这种情况,我们就需要进行UA身份伪装

# 以百度翻译为例
import json
from urllib import request, parse

url = "https://fanyi.baidu.com/sug" # 实际访问的真实url

# 请求头信息,这里只写了User_Agent,还可以有其他的设置
headers = {
	"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 "
	"(KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"
	}
	
data = {"kw": "中国"} # post请求的参数
data = parse.urlencode(data).encode() # 将data字典转换为bytes类型
req = request.Request(url=url, headers=headers) # 自定制请求对象
response = request.urlopen(url=req, data=data) # 将自定制的请求对象以及data传入
info = response.read()
info = json.loads(info) # 反序列化
print(info)

这里的User-Agent可以通过浏览器的抓包工具查看到
在这里插入图片描述
真实访问的url
在这里插入图片描述

urllib基本地使用就是这么多,欢迎指正
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值