我们操作数据库的时候,性能的瓶颈多数在插入和修改上,那么批量插入就是提升插入性能的一大利器。批量插入就是将一批数据组装到一个大sql中,这样就做一次预编译就能一次性提交到数据库了。预编译就是对sql的语句的一次装载,只要sql不变,那么就能一直使用这条sql,这也是能解决sql注入问题的关键,因为当你写好sql并预编译后,如果sql注入了就等于改变了sql就会再次触发预编译。
1、在application.yml的jdbc连接串里添加rewriteBatchedStatements=true,让mysql支持批处理。
2、IUserService中添加一个批量插入方法
//批量插入
boolean batchInsert(List<User> users);
3、在UserServiceImpl中实现这个方法
@Override
public boolean batchInsert(List<User> users) {
return saveBatch(users);
}
4、在UserController中添加实现方法
@PostMapping("/batchInsert")
@Operation(summary = "批量添加用户", description = "批量添加用户")
public ResponseEntity<Boolean> batchInsert(int num) {
List<User> users = new ArrayList<>();
for (int i = 1; i <= num; i++) {
User user = new User();
user.setUsername("zhangsan" + i);
user.setPassword("abc" + i);
users.add(user);
//每一千条插入一次
if (i % 1000 == 0) {
userService.batchInsert(users);
users.clear();
}
}
return ResponseEntity.ok(true);
}
实际工作中,可以多测试一下,看看一批是多少合适,另外这里还有一个难点问题,咱们demo中的user表主键id是自增的,而实际工作中,可能会用到自定义id的情况,经常使用雪花算法来生成id,但是这时候就会遇到id冲突的情况,所以id的生成也是一个很麻烦的事情,要多结合实际情况来避免出现逐渐冲突。
5、测试一下效果,10万条数据大概9秒。
这种效率对于一般业务也够了,不过要追求极致就不行了,要继续使用多线程来提升效率,我之前负责的电力数据入库工作,大概用了一个月才把批量存储的性能改造完成,在压测环境下峰值能到每秒60万条插入,这种优化要耐心细致,从各个方向去仔细优化。