Python学习--urllib的使用(网络抓包的实现)

本文介绍了一个简单的Python网络爬虫程序,演示了如何使用urllib库进行网页抓取。通过实例展示了GET和POST请求的使用,并对HTTP头部进行了设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

网上有很多的利用Python实现的网络爬虫程序,可以自行搜索一下。本例只是简单实现网络数据抓取没有做进一步的分析。

主要是使用urllib的使用例子。(python3)

#测试网络抓包的实现
#内置开源库 urilib , 第三方Requests , scrapy 解析库 re, BeautiulSoup
from urllib import request , parse
import urllib
#[1]
url = r'https://www.duba.com/?f=liebao'
headers = {
'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
r'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
'Referer': r'http://www.lagou.com/zhaopin/Python/?labelWords=label',
'Connection': 'keep-alive'
}
#设置一些http头信息
req = request.Request(url, headers=headers)
page = request.urlopen(req).read()
page = page.decode('utf-8')
print(page)
#[1]

#[2 ]
response = request.urlopen(r'http://www.baidu.com/s?wd=python')
html = response.read().decode('utf-8')
print(html)
#[2]

#如果要以POST发送一个请求,只需要把参数data以bytes形式传入
login_data = parse.urlencode([
('wd', "python")
])
reqt =request.urlopen(r"http://www.baidu.com/s?wd=python")
print(reqt.geturl())
html2 = reqt.read().decode('utf-8')
#print(html2)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值