R语言爬虫:当当网销售量Top500(批量爬取多个网址数据)

本文详细介绍了如何使用R语言的rvest包进行网页爬取,分别展示了爬取单页和批量爬取25页当当网图书销售排行榜数据的步骤。通过导入函数、读取网址、提取数据、整合成数据框以及保存数据的过程,阐述了R语言爬虫的基本应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

R语言爬虫:当当网销售量Top500

运用R语言中rvest包对数据进行爬取。本文主要分为两个板块,第一版块主要讲解爬取一个页面数据的R语言代码,第二版块讲解批量爬取25个页面的R语言代码


当仅仅爬取一页的数据时


提示:以下是本篇文章正文内容,下面案例可供参考

R语言代码及讲解

1.导入需要的函数

代码如下(示例):在这里插入代码片

library(rvest)
library(stringr)

2.读入网址

代码如下(示例):

web <- read_html(url, encoding = "gbk")

如果遇到报错,“类别为’closure’的对象不可以取子集
”,则一定要注意定义变量名时最好不要用r中自带的名字。(r中有自带的url,这时可以考虑给url换个名字即可)。给变量定义名称时,都需要多加注意。


3.从网页中爬取数据

代码如下(示例):在这里插入代码片

#排行
rank <- web %>% html_nodes(".list_num") %>% html_text() %>% as.numeric()

#书名
title <- web %>% html_nodes(" .name a") %>% html_text()

#作者
writer <- web %>% html_nodes(".publisher_info a:nth-child(1)") %>% html_text()

#价格
price <- web %>% html_nodes("p:nth-child(1) .price_n") %>% html_text() %>%str_match("[0-9]{2}.[0-9]{2}")%>%as.numeric()

#出版日期
date <- web %>% html_nodes(".publisher_info span") %>% html_text() %>% as.Date()

#出版地址
publication_company <- web %>% html_nodes(".publisher_info span+ a") %>% html_text()

#折扣
discount <- web %>% html_nodes(".price_s") %>% html_text()

#推荐率
tuijian <- web %>% html_nodes(".tuijian") %
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

changhaiyisheng520

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值