使用JSoup爬取网页数据
1. 首先需要有Java提供的包
下面是需要用到的依赖,我使用的是gradle构建项目。
implementation 'com.squareup.okhttp3:okhttp:4.9.0'
implementation 'org.jsoup:jsoup:1.11.3'
需要maven的可以去阿里依赖仓库查找。
[阿里仓库地址](https://developer.aliyun.com/mvn/guide)
2. JavaScript基础
需要知道一些基础的知识,这里推荐一个B站up主,点击链接就进去了。
javascript入门
3. 简介
Java通过jsoup这个包把网页解析,然后我们就可以拿到一个document的对象,通过这个document的对象我们就可以操作或获取想要的网页资源。
4. 方法介绍
首先需要准备一个网页的url,用一个字符串变量去存储。这个是需要作为参数传递的。还有一个非常重要的一点:电脑必须要联网才能操作
使用Jsoup.parse(String url)的方法,获取页面对象
Document doc = Jsoup.parse(html_url);
有里document对象后就可以根据自己的需要去获取页面的东西了。
当然了,也有其他方法可以使用,这里只是简单介绍。