爬虫【1】打开网站,获取信息

本文介绍如何利用Python的urllib库进行基本的网络爬虫操作,包括发送请求、获取响应及读取网页内容。通过示例代码讲解了如何访问百度首页并解析其HTML结构。

爬虫【1】打开网站,获取信息

如何向网站发起请求并获取响应对象?

urllib.request.urlopen
  • 作用

向网站发起请求并获取响应对象

  • 参数
url:需要爬取的URL地址
timeout: 设置等待超时时间,指定时间内未得到响应抛出超时异常
  • 第一个爬虫程序

打开浏览器,输入百度地址(http://www.baidu.com/),得到百度的响应

import urllib.request

# urlopen() : 向URL发请求,返回响应对象
response=urllib.request.urlopen('http://www.baidu.com/')
# 提取响应内容
html = response.read().decode('utf-8')
# 打印响应内容
print(html)
  • 响应对象(response)方法
1bytes = response.read() # read()得到结果为 bytes 数据类型
2、string = response.read().decode() # decode() 转为 string 数据类型
3、url = response.geturl() # 返回实际数据的URL地址
4、code = response.getcode() # 返回HTTP响应码
# 补充
5、string.encode() # bytes -> string
6bytes.decode()  # string -> bytes
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值