nodejs 爬虫

目标:爬取百度搜索到的女生头像(百度图片通用)

1. 下载node

可以去官网下载最新版node.js安装程序。(地址:node官网

2. 下载需要的依赖(模块)

这里需要用到superagent模块和node内置的fs模块,所以我们只需要下载superagent模块即可。

下载指令:npm install superagent (-g)加上-g是全局的意思,不加就是在你当前输入指令的目录下安装。

 3. 查看目标网站

 我们可以看到百度图片使用了懒加载,假如我们直接用代码来请求的话,那么就只能拿到很小一部分的图片,所以我们这里去手动拿到页面的信息,往下滑动滚动条,滑到你想要的位置之后,打开控制台(右键检查、F12、ctrl+shift+i),然后去复制html标签内容,创建一个文件(text.txt),将我们复制的页面内容放里面,接着我们就可以开始编写代码了。

我们先来分析一下页面,去检查页面上的图片:

 我们可以发现,图片的链接在data-imgurl="xxxxxxxxx"中,那么就可以通过正则来获取图片的链接。

话不多说,直接上代码

// 引入superagent模块,用于请求网址
const superagent = require('superagent');
// 引入fs模块,用于将获取到的图片数据保存到本地
const fs = require('fs');

// 读取页面内容
fs.readFile('./text.txt','utf-8',(err,data)=>{
    if(err){
        console.log('读取失败');
    }else{
        const txt = data.toString();
        // 编写正则表达式
        const reg = /(data-imgurl="https:\/\/).+?(fm=253&)/g;
        // 使用正则获取页面内容中所有符合规则的字符串(这里获取出来的字符串就是所有图片的链接)(txt.match()方法返回值是个数组)
        const URLS = txt.match(reg);
        // 声明一个变量用于文件命名
        let num = 0;
        // 利用定时器+循环请求(每3000毫秒请求10张图片)
        let timer = setInterval(() => {
            for(let i = 0; i < 10; i++){
                // 获取到图片的链接
                const URL = (URLS[num*10+i].split('="'))[1];
                // 请求图片地址 利用pipe管道传输给文件模块写入到本地的img文件夹下
                superagent.get(URL).pipe(fs.createWriteStream('./img/'+(num*10+i)+'.png'));
                console.log('第'+(num*10+i)+'张图片抓取成功');
                // 判断请求完毕所有的图片后停止定时器
                if ((num*10+i)==a.length){
                    // 延时3000毫秒之后停止(因为nodejs是一个异步程序,循环执行完毕之后可能 请求/写入 还在执行,所以我们不能直接停止程序,需要等 请求/写入 执行完毕之后再行停止)
                    setTimeout(() => {
                        clearInterval(timer);
                        console.log('抓取完毕');
                    },3000);
                    break;
                }
            }
            num++;
        },3000);
    }
});

这里有一个关键点,node是一个单线程异步程序,我们循环执行完毕时,图片的访问和文件的写入可能还没有执行完毕,这时候停止程序的话最后的几张图片可能获取不到或者写入一半被终止,导致图片损坏,所以我们要写上延时器等待几秒之后再停止程序。

我们来看一下效果图

总结:那么到这里百度图片的爬取就已经完毕了,希望对你有所帮助,good bye!

### 如何使用 Node.js 实现网络爬虫 #### 准备工作 构建一个基于 Node.js爬虫需要准备一些必要的工具和模块。Node.js 提供了一个强大的非阻塞 I/O 模型以及丰富的生态系统,使得开发者能够轻松完成复杂的任务[^1]。 #### 方法一:使用 Puppeteer 控制无头浏览器 Puppeteer 是由 Chrome 团队开发的一个 Node 库,它允许开发者通过 API 来控制 Chromium 或 Google Chrome 浏览器的行为。这种方法非常适合于动态网页抓取,尤其是当目标网站的内容是由 JavaScript 动态渲染时。 以下是使用 Puppeteer 构建简单爬虫的代码示例: ```javascript const puppeteer = require('puppeteer'); (async () => { // 启动一个新的浏览器实例 const browser = await puppeteer.launch(); // 创建新的页面对象 const page = await browser.newPage(); // 导航至指定 URL await page.goto('https://example.com'); // 抓取特定内容(例如标题) const title = await page.evaluate(() => document.title); console.log(title); // 截图保存 await page.screenshot({ path: 'example.png' }); // 关闭浏览器 await browser.close(); })(); ``` 此代码片段展示了如何启动 Puppeteer 并导航到某个网址,随后提取该页面的标题并将其打印出来[^2]。 #### 方法二:利用 SuperAgent 请求静态资源 对于不需要处理大量 JavaScript 渲染的情况,可以直接发送 HTTP 请求来获取 HTML 数据。SuperAgent 是一种轻量级的客户端请求库,适合这种场景下的数据采集需求。 下面是一个例子,展示怎样用 SuperAgent 获取百度新闻主页上的热点资讯列表: ```javascript // 加载所需依赖项 const superagent = require('superagent'); let hotNewsList; superagent.get('http://news.baidu.com') .end((error, response) => { if (!error && response.status === 200){ // 解析响应体中的热点新闻部分 hotNewsList = extractHotNews(response.text); console.log(hotNewsList); } }); function extractHotNews(htmlContent){ /* 自定义解析逻辑 */ } ``` 上述脚本说明了向服务器发起 GET 请求的过程,并演示了基本错误检测机制;实际应用中可能还需要进一步完善正则表达式匹配或其他 DOM 处理技术以准确抽取感兴趣的信息[^3]。 #### 总结 无论是采用 Puppeteer 还是 SuperAgent 方案,都各有优劣之处——前者擅长应对复杂交互式的现代 Web 页面,而后者更适用于快速读取纯文本形式的服务端输出结果集。选择具体实现方式取决于项目本身的具体要求和技术背景考量因素。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值