mysql批量插入亿级别的数据

本文探讨了影响MySQL数据插入效率的因素,包括客户端与服务端通信、主键唯一索引校验、事务检查及单线程处理,并提出了批量操作、调整bulk_insert_buffer_size、关闭校验和采用java多线程master-worker模式的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

哪些情况会影响数据插入的效率

1.单次客户端与服务端之间的通信

2. mysql对主键、唯一索引、外键的校验

3. 事务检查

4. 单线程处理业务并封装sql数据(比较耗时)

针对以上情况解决方案

1.将单次插入数据操作修改为批量操作(load加载数据比批量新增数据效率更高),可以减少client与server的通信消耗。

1.1 修改bulk_insert_buffer_size参数

# 修改insert缓存池长度,可以大批量的新增数据  
set bulk_insert_buffer_size = 53687091200;
# 需要超级权限
set GLOBAL concurrent_insert = 2;

2.关闭唯一索引、主键、外键校验

必须保证数据库主键的唯一情况下,才可使用此属性。及时关闭此属性mysql依然会检查主键唯一性
 set unique_checks = 0;
 set foreign_key_checks = 0;

3. 关闭事务检查

 set autocommit = 0;

4. 使用java多线程模型master-worker模式拆分任务,减少业务处理的耗时

4.1 Master类

这个是master类主要作用是从队列中获取数据并将数据放入临时集合中,集合中的数据大于阀值则使用线程池创建线程交于worker执行批量插入数据操作。
此类核心:1.拆分任务 2. 创建线程调用worker的run方法 3. 记录每个线程的结果集
package com.yuanda.erp9.syn.execule.thread;

import com.yuanda.erp9.syn.enums.ThreadPoolTypeEnum;
import com.yuanda.erp9.syn.execule.factory.SimpleThreadPoolFactory;
import com.yuanda.erp9.syn.service.erp9.ESService;
import com.yuanda.erp9.syn.service.erp9.GoodsService;
import com.yuanda.erp9.syn.service.erp9.impl.ESServiceImpl;
import com.yuanda.erp9.syn.service.erp9.impl.GoodsServiceImpl;
import com.yuanda.erp9.syn.util.SpringContextUtil;
import lombok.extern.slf4j.Slf4j;
import org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor;
import org.springframework.util.CollectionUtils;

import java.util.ArrayList;
import java.util.Collections;
import java.util.List;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ConcurrentLinkedDeque;

/**
 * @ClassName Master
 * @Description 主任务类,负责拆分任务,并调度worker执行.
 * @Date 2022/11/15
 * @Author myq
 */
@Slf4j
public class Master<T> {
    /**
     * 存放所有任务的容器
     */
    private ConcurrentLinkedDeque<T> deque = new ConcurrentLinkedDeque<>();

    /**
     * 存储返回值
     */
    private Concurren
### 批量插入数据的最佳实践 为了提升 MySQL 数据库的操作效率,在处理大量数据时推荐采用批量插入的方式。这种方式可以显著减少客户端与服务器之间的通信次数,降低网络开销并优化事务管理[^1]。 #### 使用 `INSERT ... VALUES` 实现多行插入 最常见也是最为直接的方法就是通过一条 SQL 语句来完成多个记录的同时写入: ```sql INSERT INTO table_name (column1, column2, ...) VALUES (value_set_1), (value_set_2), ...; ``` 每一对括号代表一组要被插入数据集,各组之间用逗号分隔开来。这样的语法结构允许一次性向表内添加若干新纪录而无需重复执行多次单独的 INSERT 操作。 #### 利用 LOAD DATA INFILE 提升大批量导入速度 当面对海量级别的静态文件型数据源时,则可考虑运用 `LOAD DATA INFILE` 命令来进行高效加载。此方法不仅速度快而且资源消耗低,非常适合用于初次建库或是周期性的全量更新场景。 ```sql LOAD DATA LOCAL INFILE 'data.csv' INTO TABLE table_name FIELDS TERMINATED BY ',' ENCLOSED BY '"' LINES TERMINATED BY '\n'; ``` 上述命令假设待上传 CSV 文件中的字段是以半角逗号作为间隔符,并且可能含有双引号包围的内容;同时每一行结尾处存在换行符表示结束标志位。 #### 注意事项 - **错误容忍度**:相较于逐条提交而言,批量化操作一旦失败将会回滚整个批次内的所有变更动作,因此建议事先做好充分测试以及必要的预验证工作。 - **内存占用情况**:大规模并发式的批量插入可能会给系统带来较大压力,故需合理规划每次请求所涉及的数量规模,必要情况下采取分片策略逐步推进。 - **索引维护成本**:频繁地修改带有复杂索引约束的目标表格会增加额外负担,适当调整 B-tree 结构下的填充因子有助于缓解该现象带来的负面影响。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心有城府,腹有良谋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值