python爬虫--趁热打铁

本文通过实战案例,详细讲解了Python爬虫的三大核心模块:请求、解析和存储。以厦门大学经济学院教师信息为例,演示了如何使用requests和BeautifulSoup进行网页数据抓取和解析,并将结果存储至本地。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

:原出处


**上篇我们学习了python爬虫的一个基础例子。如果那个掌握了,这个应该很简单。**

本次实验爬取厦门大学经济院教师姓名及教师介绍的链接
url='http://www.wise.xmu.edu.cn/people/faculty’

爬虫3大核心模块

1.请求

  • 先发送get请求–(获取html文档)
    看是否能正确得到其源文件。
import requests

DOWNLOAD_URL = 'http://www.wise.xmu.edu.cn/people/faculty'

def download_page(url):
	"""返回所取参数的html源代码
	:argv: url: 网页路径
	:return: 网页html文档
	"""
	return requests.get(url).content

def main():
	url = DOWNLOAD_URL
	html = download_page(url)
	print(html)
	
if __name__ == '__main__':
	main()

在这里插入图片描述
发现能正确返回,没有一点反爬虫手段。这就简单了。

2.解析

  • 分析其页面结构—(解析html文档–>找到我们想要的内容)
    在这里插入图片描述

找到我们要抓取的信息的位置 :都在本页面下的一个class为people_list的div里的一个target=_blank的a标签里。

from bs4 import BeautifulSoup

def parse_html(html):
	"""把所获文档中的教师姓名及链接以字典形式返回
	:argv: html文档
	:return:{教师:链接}的字典形式
	"""
	#创建BfS对象
	soup = BeautifulSoup(html)
	#先定位到这个大的div下
	people_list = soup.find('div', attrs = {'class' : 'people_list'})
	#创建字典
	people_name_dict = {}
	#找到这个div标签中的所有target=_blank的a元素
	for people_td in people_list.find_all('a', attrs = {'target' : '_blank'}):
		#用迭代将教师姓名和链接保存
		#BfS支持getText()方法取出a标签中的文本;支持['href']分离出a标签中的链接信息
		people_name = people_td.getText()
		people_url = people_td['href']
	
		people_name_dict.updata({people_name : people_url})
	
	return people_name_dict
	

3.存储

  • 把爬取到的信息保存起来—(存储信息)
def main():
	url = DOWNLOAD_URL
	html = download_page(url)
	people_info = parse_html(html)
	
	with open('test_text', 'w', encoding = 'utf-8') as fobj:
		for p_name, p_url in people_info.items():
			fobj.write("{} : {}\n".format(p_name, url + p_url))


  • 最后,将我们所有的代码进行整合
import requests
from bs4 import BeautifulSoup

DOWNLOAD_URL = 'http://www.wise.xmu.edu.cn/people/faculty'

def download_page(url):
	return requests.get(url).content

def parse_html(html):
	soup = BeautifulSoup(html)
	people_list = soup.find('div', attrs = {'class' : 'people_list'})
	
	people_name_dict = {}
	for people_td in people_list.find_all('a', attrs = {'target' : '_blank'}):
		people_name = people_td.getText()
		people_url = people_td['href']
		
		people_name_dict.update({people_name : people_url})

	return people_name_dict

def main():
	url =  DOWNLOAD_URL
	html = download_page(url)
	people_info = parse_html(html)

	with open('test_txt', 'w', encoding = 'utf-8') as fobj:
		for p_name, p_url in people_info.items():
			fobj.write("{} : {}\n".format(p_name, url + p_url))

if __name__ == '__main__':
	main()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值