一次内存溢出排查过程
导出超过20W条数据到excel。
默认使用poi提供方法XssfWorkBook进行写入Excel。
分页查询数据,每次查询完之后,写入到Excel。
现象
在写入数据10W+的时候,用时2分钟左右;
但10W+之后,速度开始慢了下,导出20W数据大约需要30分钟左右;多次导出之后,出现内存溢出问题。
排查
猜测1
怀疑sql查询太慢,超过10W条数据可能出现了深度翻页的问题。
但是通过增加日志,打印执行时间,发现用时并没有太久(同时,sql查询也有超时时间,超过5s左右会终止查询,抛出异常,而这种情况并没有出现)。
猜测2
怀疑可能是Excel文件太大了,后面写入会增加时间,导致速度慢下来了。但是通过增加打印日志,发现耗时基本是可以忽略的。
猜测3
在导出过程中,页面进行其他操作,接口出现超时。怀疑是jvm在做full gc,出现了“Stop The World”情况。
通过arthas 监控内存,以及通过jmap -histo 命令观察gc情况,发现事实是这样,执行full gc的次数很频繁,而且每次执行完full gc之后,堆内存的情况并没有很明显的减少,导致出现了频发full gc的情况。
通过jmap -heap 命令查看内存分布情况,发现排名靠前的对象有类似dom4j的东西,所以怀疑是写入Excel导致内存泄露。
解决方法:SXssfWorkBook替换XssfWorkBook。问题解决。
使用到的工具和命令
-
arthas
-
jmap -histo [pid] [interval]
-
jmap -heap >> test.txt
其他现象
在线上环境,偶尔会收到报警调用ES超时;
一般情况下都是ES所在的机器jvm发生full gc;
导致full gc的原因:某个商家做活动,一段时间内涌入

本文描述了一次在处理大量数据(超过20万条)导出Excel时遇到的内存溢出问题,经过排查,发现问题出在频繁的fullgc上,尤其是在写入SXssfWorkBook替换XssfWorkBook后解决了内存泄露。文中还提到使用的工具和技术如arthas和jmap进行内存分析。
最低0.47元/天 解锁文章
1570

被折叠的 条评论
为什么被折叠?



