【python爬虫】随机爬取百度百科并返回爬取内容的标题

本文介绍了一个Python爬虫项目,从《JOJO的奇妙冒险》的百度百科页面开始,递归地抓取每个页面简介中的链接,并随机选择一个链接继续爬取,打印所选页面的标题。爬虫通过分析HTML结构找到简介部分的链接,使用随机数种子确保可重复的随机路径。最终展示了一段运行结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近没什么事情,准备重新看一遍以前一知半解的爬虫
功能:以一个起始页开始,通过爬取网页简介的返回一个百度百科简介部分的,包含全部链接的列表,并且通过随机数,随机选取一个网站进入之后打印这个网站标题重复上述步骤递归,直到碰到一个简介中没有一个链接的百度百科网页

这里选择的初始百度百科网页是《JOJO的奇妙冒险》的百度百科,针对随机数选取采用的是随机数种子的做法,可以保证只要种子相同每次运行返回的网页标题就是相同的“随机的”网页
这就是简介部分

首先观察一下百度百科的html
在这里插入图片描述
可以看出来,简介部分的链接都是在div标签的里面并且用<a标签定义
之后代码如下

import random
import re
#import datetime#也可以用当前时间作为种子输入
from urllib.request import urlopen
from bs4
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值