对于大数据的批量插入而言,使用mybatis plus 的 批量插入 他实际上是对拆解成 for 循环 进行 insert 进行插入 所有就会造成 慢,数据越多 越特别慢,
所以对于 数据量大 的插入,还是要自己手写sql,
示例
新建表
CREATE TABLEnps_user_doc(
idint NOT NULL AUTO_INCREMENT,
user_idint NOT NULL COMMENT ‘外键,关联用户ID’,
doc_idint NOT NULL COMMENT ‘外键,关联会议中文档的ID’,
PRIMARY KEY (id) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=3889 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_unicode_ci COMMENT=‘用户文档权限关联’;
dao层
/**
* 批量插入 userDoc 数据
* @param
* @return
*/
Integer insertByParDocs( @Param("parDocs") List<UserDoc> parDocs );
xml里面写
<insert id="insertByParDocs" parameterType="java.util.List">
INSERT INTO nps_user_doc(user_id,doc_id) VALUES
<foreach collection='parDocs' item='parDoc' separator=','>
(#{parDoc.userId},#{parDoc.docId})
</foreach>
</insert>

本文探讨了在处理大数据批量插入时MyBatisPlus的局限性,并提供了一种通过自定义SQL实现高效批量插入的方法。通过示例展示了如何在DAO层及XML中实现自定义批量插入逻辑。
2万+

被折叠的 条评论
为什么被折叠?



