MyBatis Plus 如何优化千万级数据的 CRUD?

背景

做 Java 开发 8 年,接触过 Hibernate、JPA、MyBatis,到现在主力框架 MyBatis Plus(简称 MP)。一路踩坑无数,从最初写死 SQL 到现在用 Lambda 链式操作,感触最深的是:CRUD 看似简单,数据量一大,性能问题就来了。

最近负责的一个项目,数据库表量级破千万,每次执行 CRUD 都像走钢丝,稍有不慎就引起数据库报警。本文就结合这个项目的实战经验,聊聊 MyBatis Plus 在千万级数据场景下如何优化 CRUD 操作


一、MyBatis Plus 简介

MP 是 MyBatis 的增强工具,主打“无侵入、低门槛、强增强”,提供了一整套优雅的 CRUD 封装,尤其适合中后台系统的开发。

但性能优化这件事,MP 提供了钩子,还得靠我们自己去掌握底层逻辑与场景判断


二、千万级数据的挑战

当数据达到千万级时,常见的问题有:

  • 查询慢、分页卡顿
  • 更新/删除误操作影响大
  • 数据迁移困难
  • 索引策略不合理
  • 乐观锁/悲观锁未启用带来并发问题

三、优化 CRUD 的关键策略

下面我从 增、删、改、查 四个维度,结合 MP 的用法,逐一拆解优化策略。


1.查询优化(Select)

✅ 使用分页插件 + 索引优化

Page<User> page = new Page<>(1, 10);
IPage<User> result = userMapper.selectPage(page, new QueryWrapper<User>()
        .eq("status", "active")
        .orderByDesc("create_time"));

优化点:

  • 创建复合索引 (status, create_time),避免文件排序
  • 设置合理的 limit 范围,避开深分页(推荐游标分页)

✅ 游标分页(Keyset Pagination)案例:

QueryWrapper<User> wrapper = new QueryWrapper<>();
wrapper.lt("id", lastId)
       .orderByDesc("id")
       .last("limit 100");

List<User> users = userMapper.selectList(wrapper);

比传统 OFFSET 分页快得多,适合批量导出或加载。


2.插入优化(Insert)

✅ 批量插入代替单条插入

List<User> userList = new ArrayList<>();
for (int i = 0; i < 1000; i++) {
    userList.add(new User("user" + i));
}
userMapper.insertBatchSomeColumn(userList); // 需自定义方法或 MyBatis 扩展

建议:

  • 单次批量插入控制在 1000 条以内,避免 SQL 超长
  • 使用原生 JDBC 批处理,性能更优

3.更新优化(Update)

✅ 避免全表更新

错误:

userMapper.update(null, new UpdateWrapper<User>().set("status", "inactive"));

优化:

UpdateWrapper<User> wrapper = new UpdateWrapper<>();
wrapper.eq("status", "active");
wrapper.set("status", "inactive");
userMapper.update(null, wrapper);

永远记住:Update 要加条件!

✅ 乐观锁控制并发更新

@TableField(fill = FieldFill.UPDATE)
@Version
private Integer version;
user.setVersion(3);
userMapper.updateById(user); // MP 会自动加 version 判断

4.删除优化(Delete)

✅ 逻辑删除替代物理删除

@TableLogic
private Integer isDeleted;
userMapper.deleteById(123L); // 实际执行的是 UPDATE 操作

逻辑删除的优势:

  • 避免误删
  • 保留数据审计
  • 与回收站机制兼容

注意:逻辑删除字段要加索引!


四、批处理与异步处理

在千万级数据场景,批处理 + 异步化 是性能优化的核心手段:

  • 使用 Stream 分批处理大数据集合
  • 配合 Spring Batch 或自定义线程池实现异步任务
  • 使用定时任务(如 XXL-JOB)分时段处理数据

五、数据库层面的优化建议

  • 合理建索引(避免过多/重复索引)
  • 垂直/水平分表(ShardingSphere、MyCat)
  • 使用中间件缓存热点数据(Redis)
  • 慎用视图和子查询,优先考虑 JOIN 重构

六、总结:CRUD 优化是一场系统工程

MyBatis Plus 提供了优雅的接口,但数据量上来之后,框架只是工具,根本还在底层 SQL 和设计策略上

作为一个写了 8 年 Java 的程序员,我最大的体会是:

性能不是调出来的,是设计出来的。

合理建模 + 规范使用 MP + 数据库调优,才能让你的系统在千万级数据面前从容应对。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值