这一年996搞项目,一直没时间写,项目告一段落,抽空记录一下。
大概情况,一张400万的表,一张300万表,每张表20多个字段,2张表抽取数据,根据业务整合。插入新表。
临时被安排过来搞这个,原来想法使用存储过程处理,同事已经用python处理数据,效率太慢。奈何没接触过python,没办法,
开始修改同事的python。拿到代码,思路是使用多线程取数据,业务处理之后 塞回数据库,不过还是慢,整体下来要半个小时。
还没想好,后面有进展再更新吧
需要调整的数据库参数
1、关闭binlog
2、新增或修改MySQL安装目录下的my.ini文件中的[mysqld]段中的 max_allowed_packet = 1024M
本文介绍了一项关于处理大量数据库记录的任务,通过Python进行数据抽取、整合并插入新表的过程。面对原有Python脚本效率不高的问题,文章分享了如何进行优化尝试,包括关闭binlog及调整MySQL配置等措施。
1667

被折叠的 条评论
为什么被折叠?



