【Docker x Hadoop x Java API】xxx could only be written to 0 of the 1 minReplication nodes,There are 3

在Docker中搭建的Hadoop集群使用Java API进行文件操作时遇到上传下载错误,文件大小为0。问题在于datanode节点无法正常写入。解决方案包括配置容器主机名访问datanode,映射所有容器到服务器主机域名,设置能写入数据的datanode端口映射,并开启安全组和防火墙端口。经过这些步骤,数据的上传和下载得以成功。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

脑阔疼

本人使用 docker 搭建的 hadoop 集群:【Docker x Hadoop】使用 Docker 搭建 Hadoop 集群(从零开始保姆级)
今天在使用 Java API 对 Docker 搭建的 Hadoop 集群进行操作时
创建和删除文件夹可以,但一到了上传和下载文件,就疯狂报错
上传的文件在集群中可以看到,但大小均为 0 ,主要的异常报错主要如下:


File /idea/warn.log could only be written to 0 of the 1 minReplication nodes. There are 3 datanode(s) running and 3 node(s) are excluded in this operation.


Excluding datanode DatanodeInfoWithStorage[xxx:9866,DS-2520925f-7afd-4f12-89e6-09bee8d8297b,DISK]


Exception in createBlockOutputStream blk_1073741861_1038


解决方法

在分析之后(详细可以看下边分析),我选择了一种折中的方法,只让一个结点能够写入数据,然后由于集群的同步机制,其他的容器若是没有刚上传的这个文件,而又被 namenode 指定为存放该文件,那它将会从有数据的这个容器中同步我们上传的这个文件,最后达成的效果和一次性上传到每个容器时一样的

① 第一步:配置以容器主机名访问 datanode

Configuration conf = new Configuration();
conf.set("dfs.client.use.datanode.hostname", 
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

寒冰小澈IceClean

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值