Python Scrapy 爬虫小教程1:爬取智联招聘java工程师招聘信息

本文介绍使用Scrapy爬取智联招聘Java工程师招聘信息的过程。首先创建Scrapy项目,通过Anaconda Prompt输入代码完成创建,接着在Pycharm中导入项目,在spider下新建spiderexample.py文件,最后在Anaconda Prompt选定项目运行,实现爬取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Scrapy爬取智联招聘java工程师招聘信息
爬取此页面的招聘信息:
在这里插入图片描述

***************************点击此处直达原网页

创建一个scrapy 项目:
打开Anaconda Prompt
在这里插入图片描述
输入代码:

scrapy startproject crapyDemo

enter:
在这里插入图片描述

创建成功!
打开Pycharm:
file->open:
找到你创建的crapyDemo的位置,点击OK导入,在spider下新建spiderexample.py文件。
在这里插入图片描述
spiderexample.py代码:

import scrapy

class SpiderexampleSpider(scrapy.Spider):
    name = 'spiderexample'

    start_urls = ['https://m.zhaopin.com/sou/undefined--?keyword=java&provinceCode=undefined&city=undefined']

    def parse(self, response):
        detailxpath='//div[@class="title-info"]';
        items=response.xpath(detailxpath);
        for item in items:
            job=item.xpath('./div/text()').extract_first();
            jobsal=item.xpath('./div[2]/div[1]/text()').extract_first();
            if job is not None:
                print("职位:"+job+"----工资:"+jobsal)

打开Anaconda Prompt,选定你创建的项目scrapyDemo

cd scrapyDemo

输入:

scrapy srawl scrapydemo

enter,
运行:
在这里插入图片描述
爬取成功。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值