R进行爬虫,经常用的包有RCurl和rvest两个包,这里我主要介绍rvest包爬虫,大致的思路其实是一样的,爬虫之前需要对网页有个基本的了解,会查看网页相应的审核元素,找到相应的节点所在的位置,找到节点的类型class,这些了解了,后面爬虫就会得心应手很多。不多说了,先上代码吧。
library(rvest)
library(xml2)
library(sqldf)
library(gsubfn)
library(proto)
library(RSQLite)
library(DBI)
library(data.table)
library(stringr)
extradata<-function(i,non_pn_url){
url<-paste0(non_pn_url,i)##先给一个没有页码的网页#
web<-html(url)#通过html解析网页##
title<-web %>% html_nodes("div.articleh span.l3 a")%>%html_text()%>% .[c(seq(1,86,1))] %>% as.character()##找到评论数据对应的节点类型,匹配获取节点##
paperlink<-gsub("\\?source\\=search",""

本文介绍了如何使用R语言的rvest包进行网页数据爬取。通过解析HTML节点,提取评论数据、作者、发布时间等信息,并构建数据框。示例中爬取了25页的数据,涉及金融领域的量化投资话题。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



