Java爬虫 爬取某招聘网站招聘信息

一、系统介绍

系统主要功能:本项目爬取的XX招聘网站

二、功能展示

1.需求爬取的网站内容

在这里插入图片描述

2.实现流程

爬虫可以分为三个模块:数据采集,数据解析,数据保存

项目结构:
在这里插入图片描述

2.1数据采集

​ 数据采集主要是通过HttpClient去请求url,获取网页源码。
(注:除了HttpClient,还可以用HttpUtil,具体使用方式可以百度得到,这里贴出两种工具的使用代码,实现的功能是一样的)
在pom.xml配置相关依赖
HttpClient:

<dependency>
    <groupId>org.apache.httpcomponents</groupId>
    <artifactId>httpclient</artifactId>
    <version>4.5.9</version>
</dependency>

HttpUtil:

<dependency>
    <groupId>net.sourceforge.htmlunit</groupId>
    <artifactId>htmlunit</artifactId>
    <version>2.27</version>
</dependency>

两种工具看个人喜好选择,本项目选择的是HttpClient.建议使用htmlunit,htmlunit爬内容相对齐全。
HTTPClient与HttpUtil的使用方法
HTTPClient

package com.master.controller;

import org.apache.http.HttpEntity;
import org.apache.http.HttpStatus;
import org.apache.http.client.ClientProtocolException;
import org.apache.http.client.config.RequestConfig;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.client.utils.HttpClientUtils;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;

import java.io.IOException;

public class HttpClientDownPage {
   
    //设置代理,模范浏览器
    private static final String USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36";
    public static String sendGet(String url){
   
        //1.生成httpclient,相当于该打开一个浏览器
        CloseableHttpClient httpClient = HttpClients.createDefault();
        //设置请求和传输超时时间
        RequestConfig requestConfig = RequestConfig.custom().setSocketTimeout(2000).setConnectTimeout(2000)
由于涉及到网站爬取,可能会侵犯拉勾网的相关规定和法律法规。因此,我们强烈建议您遵守相关规定,合法合规地进行爬取。 以下是简单的示例代码,用于爬取拉勾网上的招聘信息: ```java import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; import java.io.IOException; public class LaGouSpider { public static void main(String[] args) { String url = "https://www.lagou.com/zhaopin/Java/"; try { Document doc = Jsoup.connect(url).get(); Elements jobList = doc.select(".job-list li"); for (Element job : jobList) { String jobName = job.select(".position_link h3").text(); String company = job.select(".company_name a").text(); String salary = job.select(".money").text(); System.out.println("职位名称:" + jobName); System.out.println("公司名称:" + company); System.out.println("薪资待遇:" + salary); System.out.println("------------------------"); } } catch (IOException e) { e.printStackTrace(); } } } ``` 这个示例代码使用了Jsoup库,通过连接拉勾网的Java职位页面,获取页面上的招聘信息。具体步骤如下: 1. 使用Jsoup.connect()方法连接要爬取的页面。 2. 使用doc.select()方法选择页面上需要提取的元素。 3. 遍历选择的元素,使用element.select()方法获取元素内的具体信息。 需要注意的是,由于拉勾网的页面结构可能会随时改变,所以代码需要根据实际情况进行调整。此外,如果您要进行大规模的爬取,需要加入相关的限制和措施,以避免对网站造成过大的负担和影响。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值