java抓取网页内容

这段代码展示了如何使用Java的HttpClients库获取网页数据,并通过Jsoup进行解析。首先创建一个HttpGet请求,然后执行请求获取响应实体,再将实体内容转换为字符串。接着使用Jsoup的parse方法解析HTML,通过select选择特定元素,最后获取和处理元素的属性值,实现对网页内容的抓取。

/*
     * 爬取网页信息
     */
    private static String pickData(String url) {
        CloseableHttpClient httpclient = HttpClients.createDefault();
        try {
            HttpGet httpget = new HttpGet(url);
            CloseableHttpResponse response = httpclient.execute(httpget);
            try {
                // 获取响应实体
                HttpEntity entity = response.getEntity();
                // 打印响应状态
                if (entity != null) {
                    return EntityUtils.toString(entity);
                }
            } finally {
                response.close();
            }
        } catch (ClientProtocolException e) {
            e.printStackTrace();
        } catch (ParseException e) {
            e.printStackTrace();
        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            // 关闭连接,释放资源
            try {
                httpclient.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
        return null;
    }上面方法返回网页字符串

下来解析字符串

用到了 Jsoup

Document document =Jsoup.parse(html)

Elements element=docment.select(".class") 

Elements element=docment.select("标签")

String str=element.child(0).chaid(1).childNode(0).childNode(0).attributes().toString()

 

String str=element.child(0).child(1).childNode(0).attributes().get("src").toString

str为解析到的网页具体内容

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值