MapReduce 踩坑 - hadoop No FileSystem for scheme: file/hdfs

本文介绍了在hadoop-3.0.2和hbase-2.0.0环境下,MapReduce任务从IDEA本地提交到集群运行正常,但在打包成jar后运行出现'No FileSystem for scheme: file/hdfs'错误的问题。分析指出,问题源于maven-assembly-plugin导致的FileSystem声明冲突,并提供了两种解决方案:一是基于MapReduce任务在提交前显式指定FileSystem类;二是调整maven-assembly配置,避免重写冲突。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、场景

hadoop-3.0.2 + hbase-2.0.0

一个mapreduce任务,在IDEA下本地提交到hadoop集群可以正常运行。

现在需要将IDEA本地项目通过maven打成jar包,从而能够在windows/Linux命令行下,通过Java -jar方式运行。

 

二、状况

报错可能1:Exception in thread "main" java.io.IOException: No FileSystem for scheme: file

报错可能2:Exception in thread "main" java.io.IOException: No FileSystem for scheme: hdfs

 

三、分析

  • 主要是maven的maven-assembly带来的问题。
  • 问题产生原因:
    •  LocalFileSystem 所在的包 hadoop-commons 和 DistributedFileSystem 所在的包 hadoop-hdfs,这两者在他们各自的 META-INFO/services下,都包含了不同但重名的文件叫做 org.apache.hadoop.fs.FileSystem。(这个FileSystem文件中,都列出了实现filesystem需要声明的规范类名。)
    • 当使用maven-assembly-plugin时,maven会将所有的jar包都merge为一个jar。因此。所有META-INFO/services/org.apache.hadoop.fs.FileSystem 会相互覆盖,最终只留一个(the last one)。在这里,hadoop-commons 中的 FileSystem 会 overwrite 掉 hadoop-hdfs 中的 FileSystem, 因此 DistributedFileS
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值