Nodejs简单爬虫

本文介绍如何使用Node.js及cheerio等模块快速搭建一个简单的网页爬虫,包括安装Node.js、初始化项目、编写爬虫代码等步骤。

安装node

安装完成后,打开命令行,执行node -v 验证是否安装成功。

初始化一个项目

使用 npm init -y 快速初始化一个新的项目,然后新建js文件。
nodejs 爬虫需要几个模块,通过 npm install 来安装。

npm install cheerio --save-dev
npm install request --save-dev
npm install iconv-lite --save-dev

初始化完成后的目录结构如下

--test
-----node_modules
-----package.json
-----test.js

test.js主要代码

引入需要的模块,

var http = require('http');
var fs = require('fs');
var iconv = require('iconv-lite');   
var cheerio = require('cheerio');
var request = require('request');

定义网站的URL,

var url ="";

定义数据保存文件,

var file = "./test.txt";  

采用http发起一次get请求,

function InitialRequest(url){
    http.get(url, function (req) {     
        var html = ''; //保存请求网站的html代码 
        req.setEncoding('utf-8'); //防止中文乱码
        //监听request data事件,当数据到来时触发事件
        req.on('data', function (chunk) { 
            //chunk表示接收到的数据
            html += chunk;
        });
        //监听request end事件,当数据传输完成时触发事件
        req.on('end', function () {  
            //用cheerio模块来解析html     
            var $ = cheerio.load(html);
            //var images = $('img');//类似jquery获取dom元素
            saveHtml(html,file);//将数据保存为文件
            // console.log(html);
        });
    })
}

保存为文件 saveHtml函数,通过node fs模块写入文件

function saveHtml(str, file){  
    fs.writeFile(file, str,function(err){  
        if(err)  
            console.log("fail " + err);  
        else  
            console.log("success");  
    });  
}  

至此,已经将网页内容抓取后保存为 test.txt文件。

总结

这是用nodejs写的简单的爬虫抓取网页内容,其实也就是一个网络请求函数和一个保存文件函数,下面是完整代码。

var http = require('http');
var fs = require('fs');
var iconv = require('iconv-lite');   
var cheerio = require('cheerio');
var request = require('request');

var url ="";
var file = "./test.txt";

function InitialRequest(url){
    http.get(url, function (req) {     
        var html = ''; //保存请求网站的html代码 
        req.setEncoding('utf-8'); //防止中文乱码
        //监听request data事件,当数据到来时触发事件
        req.on('data', function (chunk) { 
            //chunk表示接收到的数据
            html += chunk;
        });
        //监听request end事件,当数据传输完成时触发事件
        req.on('end', function () {  
            //用cheerio模块来解析html     
            var $ = cheerio.load(html);
            //var images = $('img');//类似jquery获取dom元素
            saveHtml(html,file);//将数据保存为文件
            // console.log(html);
        });
    })
}

function saveHtml(str, file){  
    fs.writeFile(file, str,function(err){  
        if(err)  
            console.log("fail " + err);  
        else  
            console.log("success");  
    });  
}  

InitialRequest(url);
### 开发 Node.js 网络爬虫Node.js 以其非阻塞 I/O 和高效的处理能力,成为了开发网络爬虫的热门选择。通过一些常用的库和模块,可以快速构建一个功能强大的爬虫系统。 #### 1. 安装 Node.js 和 npm 首先,确保你的环境中已经安装了 Node.js 和 npm(Node Package Manager)。Node.js 是一个基于 Chrome V8 引擎的 JavaScript 运行时环境,而 npm 则用于管理 Node.js 的第三方库[^5]。 你可以通过访问 [Node.js 官网](https://nodejs.org/) 下载并安装最新版本的 Node.js。安装完成后,在终端或命令行中输入以下命令来验证是否安装成功: ```bash node -v npm -v ``` #### 2. 使用 `axios` 和 `cheerio` 构建基础爬虫 `axios` 是一个用于发送 HTTP 请求的库,支持异步请求和响应处理;`cheerio` 则是一个轻量级的库,用于解析 HTML 文档并提取所需的数据。这两者的组合非常适合构建简单爬虫[^3]。 ##### 安装依赖库 在项目目录下,运行以下命令来安装 `axios` 和 `cheerio`: ```bash npm install axios cheerio ``` ##### 编写爬虫代码 以下是一个使用 `axios` 发送请求,并用 `cheerio` 解析 HTML 的简单示例: ```javascript const axios = require('axios'); const cheerio = require('cheerio'); async function scrapeData(url) { try { const response = await axios.get(url); const html = response.data; const $ = cheerio.load(html); // 假设我们要提取网页中的所有链接 const links = []; $('a').each((i, link) => { links.push($(link).attr('href')); }); console.log('提取到的链接:', links); } catch (error) { console.error('请求失败:', error); } } // 调用函数并传入目标 URL scrapeData('https://example.com'); ``` 这段代码会从指定的 URL 中提取所有 `<a>` 标签的 `href` 属性值,并将其打印到控制台。 #### 3. 使用 `request` 库进行更灵活的请求 除了 `axios`,`request` 也是一个非常流行的 HTTP 请求库。它支持多种请求方法、重定向处理以及自定义请求头等功能[^4]。 ##### 安装 `request` 库 运行以下命令来安装 `request`: ```bash npm install request ``` ##### 示例代码 以下是一个使用 `request` 发送 GET 请求并结合 `cheerio` 提取数据的示例: ```javascript const request = require('request'); const cheerio = require('cheerio'); function scrapeWithRequest(url) { request(url, (error, response, html) => { if (!error && response.statusCode === 200) { const $ = cheerio.load(html); const titles = []; // 假设我们要提取网页中的所有标题 $('h1').each((i, title) => { titles.push($(title).text()); }); console.log('提取到的标题:', titles); } else { console.error('请求失败:', error); } }); } // 调用函数并传入目标 URL scrapeWithRequest('https://example.com'); ``` #### 4. 遵守法律和网站条款 在实际开发和使用爬虫时,务必遵守相关法律法规以及目标网站的使用条款。避免对网站造成过大的负载,合理设置请求频率和间隔时间[^3]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值