NodeJS简单爬虫

NodeJS简单爬虫

  • 最近一直在追火星的一本书,然后每次都要去网站看,感觉很麻烦,于是,想起用爬虫爬取章节,务实派,说干就干!
爬取思路
  • 1、该网站的页面呈现出一定的规律
  • 2、使用NodeJS的request模块发起请求
  • 3、对获取到的数据进行处理
  • 4、使用NodeJS的fs模块将数据写入文件
源码说明
//声明需要的模块
var request = require('request');
var fs=require("fs");
//小说章节的标题
var title="";
//小说章节的内容
var article="";
//对应的网页序号
var i=1;
//写入流
var ws;

var get=()=>{
    //发起请求
    request('http://www.nitianxieshen.com/'+i+'.html', function (error, response, body) {
        try{
            if (!error && response.statusCode == 200) {
                //截取标题与段落
                title = body.match(/<div class="post_title">([\s\S]*)<\/h1>/i)[0].split("</div>")[0];
                article = body.match(/<div class="post_entry">([\s\S]*)<\/div>/i)[0].split("</div>")[0];
                //去除多余的符号
                title=title.replace("h1", "").replace("h1", "").replace(/[</a-z_"=>\r\n ]/g, "");
                article=article.replace(/br/g, "\r\n").replace(/[</a-z1=_".:&;>]/g, "");

                ws=fs.createWriteStream(title+".txt");
                ws.write(title+"\r\n\r\n","utf8");
                ws.write(article,"utf8");
                ws.end();
                console.log(title+".txt"+" 正在写入...");
                ws.on("finish", ()=>console.log("写入完成!"));
                ws.on("error", ()=>console.log("写入错误!"));
            }
        }catch(err){
            //部分章节的序号不连续,不要停止,等待自动爬取完就好,打印出该log后自动无视掉
            //好吧,其实后面有一段挺长的不连续的...有兴趣的可以再加个判断条件
            console.log("本次爬取失败");
            //目前更新的最新章节序号未到2900,确保能爬取完
            if(i>2900) clearInterval(timer);
        }
    })
}
var timer=setInterval(function(){
    get();
    i++;
}, 2000);//爬取的间隔时间不建议太短,1~2秒比较保险
效果

1
2

声明
  • 本文章仅供学习,爬取的资源请在爬取后的24小时内删除,勿将爬取到的东西商用,喜欢火星的可以支持火星哈。
### 开发 Node.js 网络爬虫的教程 Node.js 以其非阻塞 I/O 和高效的处理能力,成为了开发网络爬虫的热门选择。通过一些常用的库和模块,可以快速构建一个功能强大的爬虫系统。 #### 1. 安装 Node.js 和 npm 首先,确保你的环境中已经安装了 Node.js 和 npm(Node Package Manager)。Node.js 是一个基于 Chrome V8 引擎的 JavaScript 运行时环境,而 npm 则用于管理 Node.js 的第三方库[^5]。 你可以通过访问 [Node.js 官网](https://nodejs.org/) 下载并安装最新版本的 Node.js。安装完成后,在终端或命令行中输入以下命令来验证是否安装成功: ```bash node -v npm -v ``` #### 2. 使用 `axios` 和 `cheerio` 构建基础爬虫 `axios` 是一个用于发送 HTTP 请求的库,支持异步请求和响应处理;`cheerio` 则是一个轻量级的库,用于解析 HTML 文档并提取所需的数据。这两者的组合非常适合构建简单爬虫[^3]。 ##### 安装依赖库 在项目目录下,运行以下命令来安装 `axios` 和 `cheerio`: ```bash npm install axios cheerio ``` ##### 编写爬虫代码 以下是一个使用 `axios` 发送请求,并用 `cheerio` 解析 HTML 的简单示例: ```javascript const axios = require('axios'); const cheerio = require('cheerio'); async function scrapeData(url) { try { const response = await axios.get(url); const html = response.data; const $ = cheerio.load(html); // 假设我们要提取网页中的所有链接 const links = []; $('a').each((i, link) => { links.push($(link).attr('href')); }); console.log('提取到的链接:', links); } catch (error) { console.error('请求失败:', error); } } // 调用函数并传入目标 URL scrapeData('https://example.com'); ``` 这段代码会从指定的 URL 中提取所有 `<a>` 标签的 `href` 属性值,并将其打印到控制台。 #### 3. 使用 `request` 库进行更灵活的请求 除了 `axios`,`request` 也是一个非常流行的 HTTP 请求库。它支持多种请求方法、重定向处理以及自定义请求头等功能[^4]。 ##### 安装 `request` 库 运行以下命令来安装 `request`: ```bash npm install request ``` ##### 示例代码 以下是一个使用 `request` 发送 GET 请求并结合 `cheerio` 提取数据的示例: ```javascript const request = require('request'); const cheerio = require('cheerio'); function scrapeWithRequest(url) { request(url, (error, response, html) => { if (!error && response.statusCode === 200) { const $ = cheerio.load(html); const titles = []; // 假设我们要提取网页中的所有标题 $('h1').each((i, title) => { titles.push($(title).text()); }); console.log('提取到的标题:', titles); } else { console.error('请求失败:', error); } }); } // 调用函数并传入目标 URL scrapeWithRequest('https://example.com'); ``` #### 4. 遵守法律和网站条款 在实际开发和使用爬虫时,务必遵守相关法律法规以及目标网站的使用条款。避免对网站造成过大的负载,合理设置请求频率和间隔时间[^3]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值