【Java】jsoup爬虫抓取商品信息解析html页面(个人梳理)

本文介绍了如何使用Java的jsoup库抓取网页上的商品信息,包括配置依赖、编写后端控制层代码,以及如何选择前端页面的抓取节点。通过F12调试工具找到网页元素,并在后端逻辑中解析,最终实现数据的抓取和前端的交互。文章强调理解前端调用逻辑的重要性,并提示读者尊重版权。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

jsoup抓取商品信息实现(个人学习)

利用jsoup来解析html 抓取想要的商品信息


前言

开发工具idea jdk1.8 maven结构
利用jsoup工具 抓取想要的商品信息 例如商品标题以及价格等


一、配置jsoup依赖

<dependency>
        <groupId>org.jsoup</groupId>
        <artifactId>jsoup</artifactId>
        <version>1.8.3</version>
    </dependency>

二、抒写后端控制层代码

1.先写一个跳转方法以及给前端返回一个页面(参数按照前端接口)

crawStudent就是前端页面的名字 做参数传递使用

    @RequestMapping(value = "/crawlStudent")
    @ResponseBody
    public ModelAndView crawlStudent() throws IOException {
   
   
        ModelAndView mv = new ModelAndView();
        mv.setViewName("crawlStudent");
        return mv;
    }


2.写jsoup抓取数据的主要业务逻辑

代码如下):

  @RequestMapping(value = "/crawlUrlAndShow")
    @ResponseBody
    public Object crawlUrlAndShow(String url) throws IOException {
   
   
    
        // 需要爬取商品信息的网站地址
        // url = "https://www.amazon.cn/dp/B07598VZR8";
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36");
        Map<String, Object> map = new HashMap<>();
        Closea
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值