脑阔疼
本人使用 docker 搭建的 hadoop 集群:【Docker x Hadoop】使用 Docker 搭建 Hadoop 集群(从零开始保姆级)
今天在使用 Java API 对 Docker 搭建的 Hadoop 集群进行操作时
创建和删除文件夹可以,但一到了上传和下载文件,就疯狂报错
上传的文件在集群中可以看到,但大小均为 0 ,主要的异常报错主要如下:
File /idea/warn.log could only be written to 0 of the 1 minReplication nodes. There are 3 datanode(s) running and 3 node(s) are excluded in this operation.
Excluding datanode DatanodeInfoWithStorage[xxx:9866,DS-2520925f-7afd-4f12-89e6-09bee8d8297b,DISK]
Exception in createBlockOutputStream blk_1073741861_1038
解决方法
在分析之后(详细可以看下边分析),我选择了一种折中的方法,只让一个结点能够写入数据,然后由于集群的同步机制,其他的容器若是没有刚上传的这个文件,而又被 namenode 指定为存放该文件,那它将会从有数据的这个容器中同步我们上传的这个文件,最后达成的效果和一次性上传到每个容器时一样的
① 第一步:配置以容器主机名访问 datanode
Configuration conf = new Configuration();
conf.set("dfs.client.use.datanode.hostname",