hadoop异常处理之exceeds the limit of concurrent xcievers 256

本文介绍了在HDFS上传文件时出现的IOException异常,详细分析了异常原因,并给出了具体的解决方案,包括修改配置文件hdfs-site.xml中的并发接收器数量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

异常描述

java.io.IOException: xceiverCount 258 exceeds the limit of concurrent xcievers 256
        at org.apache.hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:165)

查看datanode日志存在*:50010:DataXceiver error processing WRITE_BLOCK operation  src


异常分析

文件操作超租期,实际上就是data stream操作过程中文件被删掉了。之前也遇到过,通常是因为Mapred多个task操作同一个文件,一个task完成后删掉文件导致。

不过这次在hdfs上传文件时发生了这个异常,导致上传失败


解决方案

修改hdfs-site.xml
  <property>
        <name>dfs.datanode.max.xcievers</name>
        <value>8192</value>
</property>
拷贝到各datanode节点并重启datanode即可


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值