如何往数据库快速插入百万条数据

本文介绍如何通过创建内存表来快速生成并导入大量数据到MySQL数据库中,包括配置调整、SQL语句及函数创建步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

具体逻辑实现:
创建两个表,一个内存表,一个数据表
然后将百万数据先存入内存表,再在内存表数据导入数据表
数据库默认好像只能存13万条数据,更改ini配置
max_heap_table_size = 1024M
前提:关闭mysql服务,在操作,重启
在这里插入图片描述

具体SQL语句:

# 创建内存表
CREATE TABLE `vote_record_memory` (  

    `id` INT (11) NOT NULL AUTO_INCREMENT,  

    `user_id` VARCHAR (20) NOT NULL,  

    `vote_id` INT (11) NOT NULL,  

    `group_id` INT (11) NOT NULL,  

    `create_time` datetime NOT NULL,  

    PRIMARY KEY (`id
### PostgreSQL 批量插入百万条数据的最佳实践 #### 使用 `COPY` 命令 对于大规模的数据导入,最有效的方法之一是使用 `COPY` 命令。该命令能够显著提高性能,因为它绕过了客户端/服务器协议栈并直接写入文件系统。 ```sql \COPY table_name FROM '/path/to/file.csv' WITH CSV HEADER; ``` 这种方法适用于从CSV或其他分隔符文本文件加载大批量记录[^1]。 #### 准备临时表 创建一个与目标表具有相同结构的临时表可以减少锁竞争,并允许预处理数据后再一次性迁移至最终位置。 ```sql CREATE TEMP TABLE temp_table AS SELECT * FROM target_table LIMIT 0; -- 插入大量数据到temp_table... INSERT INTO target_table SELECT * FROM temp_table ON CONFLICT DO NOTHING; ``` 此策略有助于管理事务大小以及简化错误恢复过程[^3]。 #### 调整配置参数 为了优化批量插入操作期间的表现,建议调整某些PostgreSQL配置项: - **max_wal_size**: 控制WAL日志的最大尺寸,默认设置可能不足以应对大容量写入场景。 - **checkpoint_completion_target**: 设置较高的值(接近1),使得检查点完成更加平滑分布。 - **effective_io_concurrency**: 对SSD存储环境适当增大这个数值可提升并发I/O效率。 这些改动需谨慎评估生产环境中其他工作负载的影响[^2]。 #### 利用多线程或多进程 如果硬件资源充足,则可以通过编程手段实现多个连接同时执行插入语句来加速整个流程。Python中的`concurrent.futures`模块就是一个很好的工具用于构建这样的应用程序逻辑。 ```python import concurrent.futures from psycopg2 import connect, sql def bulk_insert(conn_string, data_chunk): conn = None try: conn = connect(conn_string) with conn.cursor() as cur: insert_query = "INSERT INTO mytable (col1,col2) VALUES (%s,%s)" execute_values(cur, insert_query, data_chunk) conn.commit() finally: if conn is not None: conn.close() with concurrent.futures.ThreadPoolExecutor(max_workers=8) as executor: futures = [] for chunk in chunks(data_list, size=10_000): # 将大数据集分割成较小的部分 future = executor.submit(bulk_insert, db_conn_str, chunk) futures.append(future) for f in concurrent.futures.as_completed(futures): result = f.result() ``` 上述代码片段展示了如何利用Python库psycopg2配合threading pool来进行高效的批量化插入任务.
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

孜孜孜孜不倦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值