python爬虫--趁热打铁

本文通过实战案例,详细讲解了Python爬虫的三大核心模块:请求、解析和存储。以厦门大学经济学院教师信息为例,演示了如何使用requests和BeautifulSoup进行网页数据抓取和解析,并将结果存储至本地。

:原出处


**上篇我们学习了python爬虫的一个基础例子。如果那个掌握了,这个应该很简单。**

本次实验爬取厦门大学经济院教师姓名及教师介绍的链接
url='http://www.wise.xmu.edu.cn/people/faculty’

爬虫3大核心模块

1.请求

  • 先发送get请求–(获取html文档)
    看是否能正确得到其源文件。
import requests

DOWNLOAD_URL = 'http://www.wise.xmu.edu.cn/people/faculty'

def download_page(url):
	"""返回所取参数的html源代码
	:argv: url: 网页路径
	:return: 网页html文档
	"""
	return requests.get(url).content

def main():
	url = DOWNLOAD_URL
	html = download_page(url)
	print(html)
	
if __name__ == '__main__':
	main()

在这里插入图片描述
发现能正确返回,没有一点反爬虫手段。这就简单了。

2.解析

  • 分析其页面结构—(解析html文档–>找到我们想要的内容)
    在这里插入图片描述

找到我们要抓取的信息的位置 :都在本页面下的一个class为people_list的div里的一个target=_blank的a标签里。

from bs4 import BeautifulSoup

def parse_html(html):
	"""把所获文档中的教师姓名及链接以字典形式返回
	:argv: html文档
	:return:{教师:链接}的字典形式
	"""
	#创建BfS对象
	soup = BeautifulSoup(html)
	#先定位到这个大的div下
	people_list = soup.find('div', attrs = {'class' : 'people_list'})
	#创建字典
	people_name_dict = {}
	#找到这个div标签中的所有target=_blank的a元素
	for people_td in people_list.find_all('a', attrs = {'target' : '_blank'}):
		#用迭代将教师姓名和链接保存
		#BfS支持getText()方法取出a标签中的文本;支持['href']分离出a标签中的链接信息
		people_name = people_td.getText()
		people_url = people_td['href']
	
		people_name_dict.updata({people_name : people_url})
	
	return people_name_dict
	

3.存储

  • 把爬取到的信息保存起来—(存储信息)
def main():
	url = DOWNLOAD_URL
	html = download_page(url)
	people_info = parse_html(html)
	
	with open('test_text', 'w', encoding = 'utf-8') as fobj:
		for p_name, p_url in people_info.items():
			fobj.write("{} : {}\n".format(p_name, url + p_url))


  • 最后,将我们所有的代码进行整合
import requests
from bs4 import BeautifulSoup

DOWNLOAD_URL = 'http://www.wise.xmu.edu.cn/people/faculty'

def download_page(url):
	return requests.get(url).content

def parse_html(html):
	soup = BeautifulSoup(html)
	people_list = soup.find('div', attrs = {'class' : 'people_list'})
	
	people_name_dict = {}
	for people_td in people_list.find_all('a', attrs = {'target' : '_blank'}):
		people_name = people_td.getText()
		people_url = people_td['href']
		
		people_name_dict.update({people_name : people_url})

	return people_name_dict

def main():
	url =  DOWNLOAD_URL
	html = download_page(url)
	people_info = parse_html(html)

	with open('test_txt', 'w', encoding = 'utf-8') as fobj:
		for p_name, p_url in people_info.items():
			fobj.write("{} : {}\n".format(p_name, url + p_url))

if __name__ == '__main__':
	main()
MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值