关于数据库选择和写爬虫的思路

本文对比了MongoDB、MySQL与Redis的特点及适用场景,重点介绍了爬虫数据去重的方法,包括使用Redis集合去重、布隆过滤器以及根据数据内容去重等策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

mongodb mysql redis的区别和使用场景

  • mysql是关系型数据库, 支持事务
  • mongodb, redis是非关系型数据库(noSQL), 不支持事务
  • mysql, mongodb, redis的使用根据如何方便进行选择
  • 希望速度快的时候, 选择mongodb或者是redis
  • 数据量过大的时候, 选择频繁使用的数据存入redis, 其他的存入MongoDB
  • MongoDB不用提前建表建数据库, 使用方便, 字段数量不确定时候用MongoDB
  • 后续需要用到数据之间的关系, 此时考虑mysql

爬虫数据去重, 实现增量式爬虫

  • 使用数据库建立关系字段(一个或多个)建立索引进行去重

  • 根据url地址进行去重

  • 使用场景:

    • url地址对应的数据不会变的情况, url地址能够唯一判别一条数据的情况
  • 思路:

    • url存入redis中
    • 拿到url地址, 判断url在redis的url集合中是否存在
    • 存在: 代表url已经请求过, 不再请求
    • 不存在: url地址没有被请求过, 先请求, 然后把url存入redis的集合中
  • 布隆过滤器

    • 使用多个加密算法加密url地址, 得到多个值
    • 往对应值的位置把结果设置为1
    • 新来一个url地址, 一样通过加密算法生成多个值
    • 如果没有抓过, 就把对应位置的值设置为1
  • 根据数据内容进行去重

    • 选择特定的字段, 使用加密算法(md5, sha1)将字段进行加密, 生成字符串, 存入redis的集合中
    • 后续新来一条数据, 同样的方法进行加密, 如果得到的字符串在redis中存在说明数据存在, 对数据进行更新, 否则说明数据不存在, 直接插入

爬虫思路

1. class Spider:, 生产爬虫
2. class Download:, 数据下载
3. class Filter:, 数据过滤
4. class SaveResult, 数据保存
5. class Utils, 工具包, 封装功能
6. class Console, 控制台, 负责调度
7. settings.py, 配置文件
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值