使用selenium爬取当当网图书

本文介绍了如何使用selenium自动化爬取当当网上的日语图书信息,包括构造Webdriver对象,打开搜索页面,解析图书详情,并进行翻页操作。通过正则表达式提取每本书的名称、价格和评论数。

1.目标
利用Selenium抓取当当网图书并用正则表达式获取到得到商品的图片、名称、价格、评论人数信息。
2.开发环境
python2.7 +windows10 +pycharm
3.页面分析
如图,其中包含商品的图片、名称、价格、评论人数信息。
抓取入口就是当当网主页,主页链接可以通过直接构造参数访问。然后在搜索框中输入“日语” ,呈现的就是第一页的搜索结果。

在页面下方,有一个分页导航,其中既包括前6页的链接,也包括下一页的链接,同时还有一个任意页码跳转的链接,如下图所示。

商品的搜索结果为100页,要获取每一页的内容,只需要将页码从1到100顺序遍历即可,页码数是确定的。所以,直接输入要跳转的页码,即可跳转到页码对应的页面。

相对输入跳转页码而不直接点击“下一页”的理由是:一旦爬取过程中出现异常退出,比如到50页退出了,此时继续点击“下一页”,就无法快速切换到对应的后续页面。并且,在爬取过程中,同时需要记录当前的页码数,一旦点击“下一页”之后页面加载失败,就需要做异常检测,通过检测才能判断当前加载页面的页码数。导致运行时间增加,能效降低,所以选取输入页码跳转的方式来爬取页面。
Scrapy是一个强大的Python爬虫框架,它可以帮助我们自动化抓取网站数据,包括当当网图书热销榜。以下是使用Scrapy爬取当当网图书热销榜的一个简要步骤: 1. **安装设置Scrapy**: 首先确保已安装了`pip`,然后通过命令行运行 `pip install scrapy` 安装Scrapy。 2. **创建新项目**: 创建一个新的Scrapy项目,可以使用 `scrapy startproject dangdang_books`。 3. **编写Spider**: 在项目的spiders文件夹下创建一个新的Python文件(如`books_spider.py`),定义Spider类并设置起始URL,例如当当网首页的图书销售页面。 ```python import scrapy class DangDangBestSellersSpider(scrapy.Spider): name = 'dangdang_best_sellers' allowed_domains = ['dangdang.com'] start_urls = ['https://book.dangdang.com/bestseller'] def parse(self, response): # 这里需要分析HTML结构找到热销书籍的列表元素,比如商品标题、销量等信息 热销商品 = response.css('div.some-class-or-id') # 根据实际HTML选择器查找 for item in热销商品: yield { 'title': item.css('h3 a::text').get(), 'sales': item.css('.sales::text').get(), # 销量信息可能是CSS选择器 } ``` 4. **解析数据**: Scrapy的`css()``xpath()`方法用于从响应中提取数据。你需要找到热销榜的具体HTML结构,并相应地调整选择器。 5. **保存数据**: 数据通常会保存到CSV、JSON或数据库中,你可以自定义下载中间件来处理数据存储。 6. **运行爬虫**: 在命令行中进入项目目录,运行 `scrapy crawl dangdang_best_sellers` 启动爬虫。 **注意**:实时网页可能会有反爬虫策略,如验证码、动态加载内容等,这可能需要额外的技术处理,比如使用Selenium模拟浏览器行为。此外,频繁抓取可能会违反网站的服务条款,所以在使用Scrapy之前,务必确保你有权这样做并且尊重robots.txt规则。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值