java.io.IOException: Filesystem closed

本文介绍了在HDFS上读取文件时遇到的Filesystem closed异常问题及其原因,并提供了解决方案,通过禁用文件系统缓存避免异常。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

项目github地址:bitcarmanlee easy-algorithm-interview-and-practice
欢迎大家star,留言,一起学习进步

1.问题描述

往集群提交任务的时候,需要在hdfs上面读取一个资源文件。在读取该资源文件的时候,代码爆出如下异常:

Error: java.io.IOException: Filesystem closed
	at org.apache.hadoop.hdfs.DFSClient.checkOpen(DFSClient.java:823)
	at org.apache.hadoop.hdfs.DFSInputStream.readWithStrategy(DFSInputStream.java:846)
	at org.apache.hadoop.hdfs.DFSInputStream.read(DFSInputStream.java:907)
	at java.io.DataInputStream.readFully(DataInputStream.java:195)
	at java.io.DataInputStream.readFully(DataInputStream.java:169)
	at org.apache.parquet.hadoop.ParquetFileReader$ConsecutiveChunkList.readAll(ParquetFileReader.java:756)
	at org.apache.parquet.hadoop.ParquetFileReader.readNextRowGroup(ParquetFileReader.java:494)
	at org.apache.parquet.hadoop.InternalParquetRecordReader.checkRead(InternalParquetRecordReader.java:127)
	at org.apache.parquet.hadoop.InternalParquetRecordReader.nextKeyValue(InternalParquetRecordReader.java:208)
	at org.apache.parquet.hadoop.ParquetRecordReader.nextKeyValue(ParquetRecordReader.java:201)
	at org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader.nextKeyValue(DelegatingRecordReader.java:89)
...

2.问题的原因

一般读取hdfs上文件的api是这样写的:

public void initPackageNameTypeMap {
	Configuration conf = new Configuration();
	FileSystem fs = FileSystem.get(conf);
	Path file = new Path("filePath");
	...
}

当任务提交到集群上面以后,多个datanode在getFileSystem过程中,由于Configuration一样,会得到同一个FileSystem。如果有一个datanode在使用完关闭连接,其它的datanode在访问就会出现上述异常。

3.解决方案

解决的方法其实很简单,在代码中加入如下配置就好:

conf.setBoolean("fs.hdfs.impl.disable.cache", true);

FileSytem类内部有一个static CACHE,用来保存每种文件系统的实例集合,FileSystem类中可以通过"fs.%s.impl.disable.cache"来指定是否缓存FileSystem实例(其中%s替换为相应的scheme,比如hdfs、local、s3、s3n等),即一旦创建了相应的FileSystem实例,这个实例将会保存在缓存中,此后每次get都会获取同一个实例。所以设为true以后,就能解决上面的异常。

参考链接:
1.http://stackoverflow.com/questions/23779186/ioexception-filesystem-closed-exception-when-running-oozie-workflow
2.http://stackoverflow.com/questions/20057881/hadoop-filesystem-closed-exception-when-doing-bufferedreader-close
3.http://shift-alt-ctrl.iteye.com/blog/2108760

### 使用 FSDataInputStream 读取 HDFS 文件内容 以下是基于用户需求编写的解决方案,用于从 HDFS 上读取文件 `hdfs://localhost:9000/user/hadoop/task.txt` 的内容并正确输出。 #### 1. 配置 Hadoop 环境 首先需要设置正确的 Hadoop 配置环境。通过 `Configuration` 对象加载必要的配置文件(如 `core-site.xml` 和 `hdfs-site.xml`),从而确保程序能够识别 HDFS 文件系统[^2]。 ```java package com.example.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.FSDataInputStream; import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.URI; public class ReadHDFSFile { public static void main(String[] args) { String uri = "hdfs://localhost:9000"; String filePath = "/user/hadoop/task.txt"; try { // 创建 Configuration 实例,并指定 HDFS URI Configuration conf = new Configuration(); conf.set("fs.defaultFS", uri); // 获取 FileSystem 实例 FileSystem fs = FileSystem.get(new URI(uri), conf); // 打开目标文件的输入流 Path path = new Path(filePath); FSDataInputStream inputStream = fs.open(path); // 将输入流转为可读形式 BufferedReader reader = new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line = reader.readLine()) != null) { System.out.println(line); // 输出每一行的内容 } // 关闭资源 reader.close(); inputStream.close(); fs.close(); } catch (Exception e) { e.printStackTrace(); // 处理异常情况 } } } ``` 此代码片段实现了以下功能: - 加载 Hadoop 默认配置并通过 `set` 方法显式指定了 `fs.defaultFS` 参数以匹配所需的 HDFS 地址[^2]。 - 使用 `FileSystem.get()` 方法获取与给定 URI 相关联的文件系统实例。 - 借助 `FSDataInputStream` 打开了指定路径下的文件,并逐行打印其内容至标准输出设备。 #### 2. 解决可能遇到的问题 在某些情况下,可能会出现类似于 “Wrong FS” 或者 “Filesystem closed” 的错误提示。针对这些问题有如下建议: ##### 错误:`Wrong FS` 原因可能是当前使用的 `Path` 不属于所期望的文件系统类型。例如,尝试用本地文件系统的上下文中操作 HDFS 路径就会触发此类警告消息[^1]。 解决办法已在前面展示过——即明确告知应用程序应该采用哪个文件系统作为默认选项。 ##### 错误:`Filesystem closed` 这种状况通常是由于未能妥善管理生命周期内的各种 I/O 流造成的。一旦某个流被提前关闭,后续再试图对其进行任何进一步的操作都会抛出该类型的例外事件[^3]。 预防措施包括始终遵循良好的实践习惯,比如及时释放不再需要的对象以及合理安排嵌套结构内部各组件之间的依赖关系等。 --- ### 注意事项 - 确保运行时具备访问 HDFS 的必要权限; - 如果涉及跨域通信,则需验证防火墙规则允许相应的端口号通行无阻; - 在生产环境中考虑增加日志记录以便于调试和维护工作开展顺利进行。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值