记一次生产OOM的排查过程

文章描述了一次生产环境中早晨服务定期宕机的问题,通过日志发现是由于OOM引起。进一步分析heapdump文件,利用在线工具BrilliantGraphs解析,定位到内存占用高的代码段,发现是批量任务处理大量数据导致。解决方案是对相关代码进行优化,减少内存消耗。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近生产突然在每日早上都出现了服务宕机的情况,当日宕机后我们查询的生产的日志发现服务发生了OOM,日志如下:

 根据日志的信息查找到对应的代码发现是自定义的过滤器导致,我们查看代码发现是过滤器执行放过的流程,此时并不能定位具体的原因

并且我们通过观察grafana的监控发现内存的使用并没有太大的波动

此时我们只能在生产增加配置生产dump文件,然后重启服务,这时一切恢复正常(万能的重启大法)。这一天也一直没有什么问题,等待到了次日早上,灾难再次如期而至

此时我们只能拉取生产的heapdump.hprof文件。由于heapdump.hprof是乱码文件我们不能直接打开,我们可以自行百度搜索对应的工具,我是使用的一款在线工具Brilliant Graphs, metrics and heap dump analysisanti-patterns reportedIdentify memory wasted due to wrong memory size settings, inefficient collections, duplicate Objects, duplicate arrays, inefficient arrays, finalization, boxed numbers, object headershttps://heaphero.io/heap-index.jsp

添加对应的dump文件,然后确认Analyze会自动解析文件此时可能需要等待一段时间。

解析完成后会进入如下页面: 

这里已经告知了发生OOM出现的具体位置,在dominator Tree目录下会有相关内的内存使用情况

此时我们只需逐步去分析内存占用最高的几个类的详情逐步分析,可以查看到具体的执行服务(方法代码)

 此时我们只需要去查询对应的代码就可以,发现接口是用于批量任务使用的

发现此段代码是导致内存溢出的主要原因,此处查询返回大量的数据导致,只需根据业务要求优化此处代码即可。 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值