爬取全国各大院校2019考研调剂信息

本文介绍了一款用于抓取2019年全国各大院校考研调剂信息的Python爬虫程序,该程序利用Scrapy框架从指定网站抓取并解析调剂信息,包括大学名称、链接及详细内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

信息来源:全国各大院校2019考研调剂信息汇总(持续更新)

代码实现:

# kaoyan.py
# -*- coding: utf-8 -*-
from copy import deepcopy

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class KaoyanSpider(CrawlSpider):
    name = 'kaoyan'
    allowed_domains = ['kaoyan365.cn']
    start_urls = ['http://www.kaoyan365.cn/kaoyantiaoji/tiaojixinxi/158281.html']

    rules = (
        # 提取各个省份的url地址
        Rule(LinkExtractor(allow=r'http://www.kaoyan365.cn/kaoyantiaoji/tiaojixinxi/\d+?.html'), callback='parse_list',
             follow=False),
    )

    def parse_list(self, response):
        # 提取各个大学名称及链接
        td_list = response.xpath('//div[@class="zg_list_left01_cont"]//td')
        for td in td_list:
            item = {}
            item["university"] = td.xpath('.//text()').extract_first()
            item["href"] = td.xpath('./a/@href').extract_first()
            if item["href"]:
                yield scrapy.Request(
                    item["href"],
                    callback=self.parse_university,
                    meta={"item": deepcopy(item)}
                )

    def parse_university(self, response):
        # 获取网页详细内容
        item = response.meta["item"]
        item["content"] = response.xpath("//div[@class='zg_list_left01_cont']//text()").extract()
        yield item
# pipelines.py
# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
import re


class TiaojiPipeline(object):
    def process_item(self, item, spider):
        # 写入文件
        with open("考研调剂信息.txt", "a", encoding="utf-8") as f:
            f.write("***" + item["university"] + ":" + item["href"] + "\n")
        # 清理无效数据
        self.clear_item(item["content"])
        return item

    def clear_item(self, content_list):
        """清理无效数据"""
        for content in content_list:
            content = re.sub(r"u3000", "", content)
            with open("考研调剂信息.txt", "a", encoding="utf-8") as f:
                f.write(content.strip() + "\n")

 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值