记录一次spark的job卡住问题

线上Spark任务出现长时间运行未结束的情况。排查发现,executor的task在执行数据库插入时,由于连接池耗尽,线程在初始化连接时被阻塞。分析原因,可能是foreachpartition操作中,每个partition获取连接后未及时释放,导致线程锁竞争,任务无法正常完成。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

现象:

线上spark任务出现卡住一直运行不完的问题

一:排查步骤

1.查看spark任务执行过程发现有三个task在运行

 

2.spark任务参数配置的一个executor三个core,查看task对应的excutor的日志发现当前excutor完成driver分配的上一个(206.0)task后,在执行下一个driver分配的下一个(236.0)task时,日志不再输出,看下图日志可以看到三个worker线程都是一样的在执行driver分配的task时没有任何日志输出,怀疑线程阻塞了。

3.点击thread dump后可看到线程Executor task launch worker-6和Executor task launch worker-7处于BLOCKED状态,Executor task launch worker-8处于time_waiting状态。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值