python爬虫3之http get请求模拟

本文介绍了如何使用Python的urllib库发送HTTP GET请求到百度搜索引擎,并获取搜索结果。特别关注了如何处理中文关键词的编码问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如果要进行客户端和服务端的消息传递,我们可以使用Http协议请求进行。

GET请求会通过URL网址传递信息比如在百度上查找一个关键字hello,使用爬虫自动实现这个过程。

思路如下:

(1)构建对应的url地址,该URL地址包含GET请求的字段名和字段内容等信息,并且URl满足get请求的格式,即“http://网址? 字段名1=字段内容&字段名2=字段内容2“

(2)以对应的URL为参数,构建Request对象。

(3)通过urlopen()打开构建的request对象。

(4)按需求进行之后的操作。

import urllib.request
keywd="hello"
url="http://www.baidu.com/?wd="+keywd
req=urllib.request.Request(url)
data=urllib.request.urlopen(req).read
但是当检索的内容是中文时,会出现编码错误:

UnicodeEncodeError: 'ascii' codec can't encode characters in position 9-10: ordinal not in range(128)
此时可以对代码进行修改:

import urllib.request
keywd="天才"
key_code=urllib.request.quote(keywd)
url="http://www.baidu.com/?wd="+key_code
req=urllib.request.Request(url)
data=urllib.request.urlopen(req).read




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值