scrapy爬取前程无忧(2)

1.安装 pip install scrapy
报错解决:离线安装twisted pip install xxx-twisted.whl(百度搜索twisted 点击twisted pypi进去下载相应的whl
pip install pywin32(https://www.lfd.uci.edu/~gohlke/pythonlibs/,下载对应的whl文件)
2 切换到自己pycharm文件的位置
。创建项目:scrapy startproject 项目名字
。创建爬虫:scrapy genspider 爬虫名字 域名
。编写爬虫
。运行爬虫 scrapy crawl 爬虫名字
。保存为csv文件 scrapy crawl job -o job.csv
#核心代码job.py

# -*- coding: utf-8 -*-
import scrapy


class JobSpider(scrapy.Spider):
    name = 'job'
    allowed_domains = ['51job.com']
    start_urls = ['https://search.51job.com/list/030000%252C200000%252C130000%252C070000%252C140000,000000,0000,00,9,99,python,2,2.html?lang=c&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&ord_field=0&dibiaoid=0&line=&welfare=']

    def parse(self, response):
        '''
          解析数据的response就是start_urls网址对应的数据

        :param response:网站返回的数据
        :return: 提取数据
        '''
        #print(response.text)
        selectors = response.xpath('//div[@class="el"]')
        for jk in selectors:
            #详情页网址
            url = jk.xpath('./p/span/a/@href').get()
            if url:
                #User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:71.0) Gecko/20100101 Firefox/71.0
                print(url)
                #url1 = jk.xpath('./p/span/a/text()').get()
                #url2 = url+url1
                #进入详情页 发出请求
                #yield 是一个生成器 类似return
                yield scrapy.Request(url,callback=self.parseDetail)
                #print(url)
    def parseDetail(self,response):
        '''
         这个函数 用来处理详情页的数据
        :param response: 详情页的结果
        :return: 详情页提取的数据
        '''
        xinzi = response.xpath('//div[@class="cn"]/strong/text()').get(default='')
        zhiwei = response.xpath('//div[@class="cn"]/h1/text()').get(default='')
        gongzi = response.xpath('//p[@class="cname"]/a/@title').get(default='')
       #一定字典格式
        items = {
            '薪资:':xinzi,
            '职位:':zhiwei,
            '公司:':gongzi

        }
        yield items
        #return items

setting的代码:
True改为False
这里改为:
在这里插入图片描述

DEFAULT_REQUEST_HEADERS = {
    'Accept':	'text/html,application/xhtml+xm…plication/xml;q=0.9,*/*;q=0.8',
    'Accept-Encoding':	'gzip, deflate, br',
    'Accept-Language':	'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
    'Cache-Control':	'max-age=0',
'Connection':	'keep-alive',
'Host': 	'search.51job.com',
'Upgrade-Insecure-Requests':	'1',
'User-Agent':	'Mozilla/5.0 (Windows NT 10.0; …) Gecko/20100101 Firefox/71.0'
}

效果图

在这里插入图片描述

保存至当前目录的csv文件
在这里插入图片描述

好的,scrapy是一个强大的Python爬虫框架,可以用来爬取各种网站数据。以下是爬取前程无忧岗位的基本步骤: 1. 创建一个Scrapy项目 在终端中使用以下命令创建一个Scrapy项目: ``` scrapy startproject jobspider ``` 这将创建一个名为`jobspider`的Scrapy项目。 2. 创建一个Spider 使用以下命令在项目中创建一个Spider: ``` scrapy genspider jobspider spidername ``` 其中,`jobspider`是Spider所属的项目名称,`spidername`是Spider的名称。 3. 定义Spider 在Spider的Python文件中,定义`start_urls`属性和`parse`方法。`start_urls`属性是一个列表,包含要爬取的页面URL。`parse`方法是一个回调函数,用于处理爬取到的响应数据。 以下是一个简单的Spider定义: ``` import scrapy class JobSpider(scrapy.Spider): name = "jobspider" start_urls = [ 'https://search.51job.com/list/000000,000000,0000,00,9,99,Python,2,1.html', ] def parse(self, response): for job in response.css('div.el'): yield { 'title': job.css('p.t1 span a::text').get(), 'company': job.css('span.t2 a::text').get(), 'location': job.css('span.t3::text').get(), 'salary': job.css('span.t4::text').get(), } next_page = response.css('div.p_in ul li.bk a::attr(href)').get() if next_page is not None: yield response.follow(next_page, self.parse) ``` 这个Spider将爬取前程无忧Python相关的岗位信息,并提取岗位标题、公司名称、工作地点和薪资信息。 4. 运行Spider 在终端中使用以下命令运行Spider: ``` scrapy crawl spidername -o output.json ``` 其中,`spidername`是Spider的名称,`output.json`是将结果保存到的文件名。爬虫运行完成后,结果将保存到指定的JSON文件中。 以上就是使用Scrapy爬取前程无忧岗位的基本步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值