HDFS小坑

本文分享了在本地IDE环境中测试HDFS文件写入时遇到的问题及解决办法,包括配置FileSystem实现类和调整HDFS连接端口。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

因为需要对HDFS上的文件进行写入,所以需要在本地进行测试。


在运行《权威指南》例3-2的样例程序时,遇到一些问题。


像我这种懒人肯定懒得打包再命令行,所以直接在IDE里运行的。遇到两个小坑。


1-当HDFS路径参数指定为:“hdfs://localhost/1.txt”时,程序报错 No FileSystem for scheme: hdfs.

经过查询发现,由于hadoop-hdfs和hadoop-common中均存在org.apache.hadoop.fd.FileSystem,

common中的FileSystem:

org.apache.hadoop.fs.LocalFileSystem
org.apache.hadoop.fs.viewfs.ViewFileSystem
org.apache.hadoop.fs.ftp.FTPFileSystem
org.apache.hadoop.fs.HarFileSystem
hdfs中的fileSystem:

org.apache.hadoop.hdfs.DistributedFileSystem
org.apache.hadoop.hdfs.web.HftpFileSystem
org.apache.hadoop.hdfs.web.HsftpFileSystem
org.apache.hadoop.hdfs.web.WebHdfsFileSystem
org.apache.hadoop.hdfs.web.SWebHdfsFileSystem

需要在configuration中指定

conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");

2-在指定后,开始报第二个错误,

Call From localhost/127.0.0.1 to localhost:8020 failed on connection exception

端口错误,在网上查了一圈端口,我是按照《权威指南》布的伪分布式,即在core-site.xml中的设置为:

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:/</value>
    </property>
</configuration>

报错后,将value改为hdfs://localhost:8020/就好使了。

这个让我稍微有点迷,因为8020应该是 默认的端口。希望随着学习的深入,可以了解。这篇就先写到这里。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值