Python爬虫学习(1)

本文介绍了Python爬虫初学者如何从零开始学习爬虫技术,主要涉及Requests库的GET方法获取网页数据及BeautifulSoup库解析HTML文档。通过实例展示了如何使用这两个库抓取和解析网页内容,为后续的网页数据提取打下基础。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了完成毕业设计,从Python零基础开始学习爬虫技术。

1.Requests库

功能:用于网页请求
网页请求方式:GET方法(常用)与POST方法

使用GET方式抓取网页源码数据:

import requests        				#导入requests包
url = 'http://www.baidu.com/'		#将目标网页赋值给一个变量
strhtml = requests.get(url)        	#调用requests库的Get方法获取网页数据,并将其赋值给变量
print(strhtml.text)					#打印网页的文本数据

2.BeautifulSoup库

功能:从网页中抓取数据
常见方法:BeautifulSoup()、soup.select()、soup.prettify()等

简单示例:

import requests        							#导入requests包
from bs4 import    BeautifulSoup				#导入bs4中的BeautifulSoup包
url='http://www.baidu.com/'						
strhtml=requests.get(url)				
soup=BeautifulSoup(strhtml.text,'lxml')			#指定lxml解析器进行解析
print(soup)										#打印结果

2.1 BeautifulSoup()——解析文档

Beautiful Soup 选择最合适的解析器来解析文档,解析后便将复杂的 HTML 文档转换成树形结构,并且每个节点都是 Python 对象。

soup=BeautifulSoup(strhtml.text,'lxml')	

此处指定 lxml 解析器进行解析,将解析后的文档存储到新建的变量 soup 中。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值