nodeJs 爬虫

本文介绍使用Node.js进行网页爬取的技术细节,包括所需模块的安装(如request、cheerio),并提供两种爬虫实现方法:一种为基本的回调函数方式,另一种则采用Promise以实现更现代的异步编程模式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、既然用nodejs写爬虫,第一个肯定是要安装nodejs啦,还有,既然你都看我的文章啦,说明你已经安装nodejs啦。

2、安装需要的模块:request、cheerio,如果用promise写的话,还要安装一个bluebird模块

3、我们爬虫的页面如下:

4、第一种方法代码如下:

// require 需要的模块,可以去npm和github看文档
var request = require('request'); 
const cheerio = require('cheerio')
const baseUrl = "https://blog.youkuaiyun.com/wangweiscsdn/article/list/";// 这个链接有没有觉得眼熟,嘿嘿

// 这个主要获取文章标题
function startReq(url) {
    request(url, function (error, response, body) {
        const $ = cheerio.load(body); // 这里可以获取当前url的页面的html
        const data = $('h4 > a');
        data.map((k) => {
            const title = data[k].children[0].next.next.data;
            // console.log('data[k]------------->', data[k].children[0].next.next);
            console.log(title);
        })
    });
}

for (let i = 1; i < 10; i++) {
    const url = baseUrl + i;
    startReq(url);
}

5、第二种用了promise方式代码如下:

var request = require('request');
var promise = require('bluebird');
const cheerio = require('cheerio')
const baseUrl = "https://blog.youkuaiyun.com/wangweiscsdn/article/list/";

function startReq(url) {
    return new Promise(function (resolve, reject) {
       let titles = []; 

        request(url, function (error, response, body) {
            const $ = cheerio.load(body);
            const data = $('h4 > a');
            
            data.map((k) => {
                const title = data[k].children[0].next.next.data;
                titles.push(title);
            })

            resolve(titles);
        });

    });
}

for (let i = 1; i < 10; i++) {
    const url = baseUrl + i;
    promise
        .all(startReq(url)) // all是peomise自带的方法,可以接受参数
        .then(function(titles) {
            console.log('scrawl complate!', titles);
        })
}

 

 

 

### 如何使用 Node.js 实现网络爬虫 #### 准备工作 构建一个基于 Node.js 的爬虫需要准备一些必要的工具和模块。Node.js 提供了一个强大的非阻塞 I/O 模型以及丰富的生态系统,使得开发者能够轻松完成复杂的任务[^1]。 #### 方法一:使用 Puppeteer 控制无头浏览器 Puppeteer 是由 Chrome 团队开发的一个 Node 库,它允许开发者通过 API 来控制 Chromium 或 Google Chrome 浏览器的行为。这种方法非常适合于动态网页抓取,尤其是当目标网站的内容是由 JavaScript 动态渲染时。 以下是使用 Puppeteer 构建简单爬虫的代码示例: ```javascript const puppeteer = require('puppeteer'); (async () => { // 启动一个新的浏览器实例 const browser = await puppeteer.launch(); // 创建新的页面对象 const page = await browser.newPage(); // 导航至指定 URL await page.goto('https://example.com'); // 抓取特定内容(例如标题) const title = await page.evaluate(() => document.title); console.log(title); // 截图保存 await page.screenshot({ path: 'example.png' }); // 关闭浏览器 await browser.close(); })(); ``` 此代码片段展示了如何启动 Puppeteer 并导航到某个网址,随后提取该页面的标题并将其打印出来[^2]。 #### 方法二:利用 SuperAgent 请求静态资源 对于不需要处理大量 JavaScript 渲染的情况,可以直接发送 HTTP 请求来获取 HTML 数据。SuperAgent 是一种轻量级的客户端请求库,适合这种场景下的数据采集需求。 下面是一个例子,展示怎样用 SuperAgent 获取百度新闻主页上的热点资讯列表: ```javascript // 加载所需依赖项 const superagent = require('superagent'); let hotNewsList; superagent.get('http://news.baidu.com') .end((error, response) => { if (!error && response.status === 200){ // 解析响应体中的热点新闻部分 hotNewsList = extractHotNews(response.text); console.log(hotNewsList); } }); function extractHotNews(htmlContent){ /* 自定义解析逻辑 */ } ``` 上述脚本说明了向服务器发起 GET 请求的过程,并演示了基本错误检测机制;实际应用中可能还需要进一步完善正则表达式匹配或其他 DOM 处理技术以准确抽取感兴趣的信息[^3]。 #### 总结 无论是采用 Puppeteer 还是 SuperAgent 方案,都各有优劣之处——前者擅长应对复杂交互式的现代 Web 页面,而后者更适用于快速读取纯文本形式的服务端输出结果集。选择具体实现方式取决于项目本身的具体要求和技术背景考量因素。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值