Java使用Jsoup爬取网页数据

本文介绍了如何利用Jsoup库进行网页抓取,详细展示了从引入依赖、设置请求参数、选择器的使用到下载图片的完整步骤。通过选择器提取图片链接,并借助工具类实现图片本地保存。同时,提到了处理请求头校验和创建文件夹管理下载图片的方法,帮助读者理解网页爬虫的基本操作。

1、引入依赖

<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.13.1</version>
</dependency>

2、基本方法

    public static void main(String[] args) throws IOException {

//      1、访问url
        String url = "";

//      2、参数,没有可不写
        Map<String, String> params = new HashMap<>();
//        params.put("word","壁纸");

//      3、请求文档资源—有get和post两种方法,取决于要爬取的数据,爬取html一般使用get即可
        Document document = Jsoup.connect(url).data(params).get();

//        4、选择器—用来选择元素,主要有几种方式
        /*
         * 1、getElementsByTag  按照标签选择,通常用来选择 h1 ,img标题等元素
         * 2、getElementsByClass 按照元素的class命名选取
         * 3、getElementById 按照元素ID
         * 4.select 复合选择器,最常用的方法—如下
         *      #nav 选择id为nav的元素
         *      .container 选择class为 container的元素
         *      p > img 选择p标签下的所有img标签,如果是p>a>img,则选择不到。层级必须对应
         *      其余方法详情见官方API  https://jsoup.org/cookbook/extracting-data/attributes-text-html
         */
        Elements elements = document.select("div.post_body > p > img");

        /*
        *  这里就已经获取到了所有的图片,可以通过attr方法获取标签的属性,获取图片url
        *  使用工具类写到本地文件夹就行了
        */
        String FilePath = "D://imgDown/";
        for (int i = 0; i < elements.size() ; i++) {
            //此方法只有三个参数——URL地址,文件名字(全名,包含路径),超时时间
            FileUtil.downFile(elements.get(i).attr("src"),FilePath+i+".jpg",5000);
        }    
    }

3、工具类代码—lombok看自己想法是否引入,不需要的话,删除掉log相关的打印就行了

import lombok.extern.slf4j.Slf4j;

import java.io.*;
import java.net.HttpURLConnection;
import java.net.URL;


@Slf4j
public class FileUtil {

    public static boolean downFile(String urlString, String fileName, Integer timeout) {
        boolean ret = false;
        File file = new File(fileName);
        try {
            if(file.exists()){
                file.delete();
            }
            log.info("开始下载文件");
            URL url = new URL(urlString);
            HttpURLConnection con = (HttpURLConnection)url.openConnection();
            if (timeout != null) {
                con.setConnectTimeout(timeout);
                con.setReadTimeout(timeout);
            }
            con.connect();
            int contentLength = con.getContentLength();
            InputStream is = con.getInputStream();
            int len;

            File file2=new File(file.getParent());
            file2.mkdirs();
            if(file.isDirectory()){

            }else{
                file.createNewFile();//创建文件
            }
            OutputStream os = new FileOutputStream(file);
            while ((len = is.read(bs)) != -1) {
                os.write(bs, 0, len);
            }
            os.close();
            is.close();
            if(contentLength != file.length()){
                file.delete();
                ret = false;
            }else{
                ret = true;
            }
        } catch (IOException e) {
            file.delete();
            ret = false;
        }finally {
            return ret;
        }
    }
}

4、补充

一般在爬取网页的过程中,标题都会是h1标签,可以根据标题创建文件夹,这样方便管理

 String title = document.select("h1").text();
 String FilePath = "D://imgDown/"+title+"/";

部分网站做了请求头校验,在创建连接的时候,需要添加 headers()参数(单个添加用header),以下是比较常见的的数据,还有Token和Authorization等校验(极少数会有cookie校验),具体可以以浏览器抓取到的参数填写。

Map<String, String> headers = new HashMap<String, String>();
//此处Host的值需要按照访问地址填写
header.put("Host", "https://www.163.com");
header.put("User-Agent", "  Mozilla/5.0 (Windows NT 6.1; WOW64; rv:5.0) Gecko/20100101 Firefox/5.0");
header.put("Accept", "  text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8");
header.put("Accept-Language", "zh-cn,zh;q=0.5");
header.put("Accept-Charset", "  GB2312,utf-8;q=0.7,*;q=0.7");
header.put("Connection", "keep-alive");
Document document = Jsoup.connect(url).headers(headers).data(params).get();
### 使用 Jsoup 进行静态网页数据爬取 Jsoup 是一款功能强大的 Java 库,主要用于解析 HTML 文档并提取所需的数据。然而需要注意的是,Jsoup 只能处理静态页面的内容,即服务器返回的原始 HTML 数据[^1]。如果目标网站通过 JavaScript 动态加载部分内容,则这些动态生成的部分无法被 Jsoup 获取。 以下是基于引用中的描述所提供的一个简单示例代码: ```java import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.select.Elements; public class WebScraper { public static void main(String[] args) { try { // 发起 HTTP 请求并获取文档对象 Document doc = Jsoup.connect("http://www.example.com/").get(); // 提取特定标签内容 (例如所有的 a 链接) Elements links = doc.select("a[href]"); for (org.jsoup.nodes.Element link : links) { System.out.println(link.attr("href")); // 输出链接地址 System.out.println(link.text()); // 输出链接文字 } } catch (Exception e) { e.printStackTrace(); } } } ``` 上述代码展示了如何利用 Jsoup 对指定 URL 的静态内容发起请求,并从中提取 `<a>` 标签的相关属性和文本信息[^2]。 对于需要存储爬取结果的情况,可以通过引入 MySQL 和 MyBatis 等工具来完成后续操作[^3]。不过这超出了当前问题的核心范围,在此不做深入展开。 #### 关于动态网页的局限性说明 由于 Jsoup 并不具备执行 JavaScript 脚本的能力,因此它不适合用来抓取由前端框架(如 React、Vue 或 Angular)渲染后的动态内容。针对这种情况,建议考虑 Selenium 或 Puppeteer 等支持浏览器自动化运行环境的技术方案作为替代选项。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值