基于spark的网络爬虫实现

本文介绍如何在Spark环境中实现网页爬虫,通过JavaSparkContext构建并利用Java中的网页获取技术来抓取网页内容。示例代码展示了从指定URL列表开始抓取页面的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

爬虫是获取网络大数据的重要手段,爬虫是一种非常成熟的技术了,然而想着在spark环境下测试一下效果.


还是非常简单的,利用JavaSparkContext来构建,就可以采用原来java中的网页获取那一套来实现.


首先给定几个初始种子,生成一个JavaRDD对象即可
        JavaRDD<String> rdd = sc.parallelize("urllist");


 JavaRDD<String> content = rdd.map(new Function<String, String>() {
            public String call(String url) throws Exception {
                System.out.println(url);
                CloseableHttpClient client = null;
                HttpGet get = null;
                CloseableHttpResponse response = null;
                try {
                    //## 创建默认连接
                    client = HttpClients.createDefault();
                    get = new HttpGet(url);
                    response = client.execute(get);
                    HttpEntity entity = response.getEntity();
                    //## 获得输出字节流
                    ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream();
                    entity.writeTo(byteArrayOutputStream);
                    //## 转化为文档
                    String html = new String(byteArrayOutputStream.toByteArray(), Charsets.UTF_8);
                    Document document = Jsoup.parse(html);
                    return html;
                } catch (Exception ex) {
                    ex.printStackTrace();
                    return "";
                } finally {
                    if (response != null) {
                        response.close();
                    }
                    if (client != null) {
                        client.close();
                    }
                }
            }
        });


当然可以从HTML再找到子页连接,继续以深度或者广度进行优先爬虫.


如输出http://docs.opencv.org/的文档如下:


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值