redis-spider的使用:当当网图书爬虫案例

本文介绍了一个使用Scrapy和Redis构建的当当网图书爬虫案例。爬虫从图书的大分类开始,经过中间分类,抓取小分类的URL、图书详情如名称、封面、作者等信息。在解析过程中,针对不同分类结构进行处理,并利用Redis避免多台机器重复请求起始URL。最后,详细讲述了将普通Spider转换为RedisSpider的步骤和配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

需求:抓取当当图书的信息

目标:抓取当当图书信息, 包含: 图书所属大分类、图书所属小的分类、小分类的url地址, 图书的名字、封面图片地址、图书url地址、作者、出版社、出版时间、价格、

url:http://book.dangdang.com

思路分析:

  1. 程序的入口
    当当图书中,从大分类入手,还有一个中间分类,以及小分类,小分类对一个的地址就是列表页的地址
    注意,url地址的响应和elements略微不同,其中不是每个大分类都在a标签中,中间部分分类不在span标签中
    大分类
    中分类为dl下的dt元素
    小分类
    ##注意:
    由于前两个大分类中小分类对应的列表是变化的,我们只需要根据不同小分类名称进行它的列表类型, 然后进行不同提取就可以;换句话说代码量比较多
    #2. 确定列表页的url地址和程序终止条件
    有下一页的情况
    有下一页的时候,li[@class=“next”]下的a标签有链接
    这里写图片描述
    有一个class="next none"的标签
    所以只要找不到next none的情况下,就找next的url

#3. 确定数据的位置
这里写图片描述
#4.开始写爬虫
##1.创建爬虫项目

scrapy startproject dangdang
cd dangdang
scrapy genspider book
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值