因为需要对HDFS上的文件进行写入,所以需要在本地进行测试。
在运行《权威指南》例3-2的样例程序时,遇到一些问题。
像我这种懒人肯定懒得打包再命令行,所以直接在IDE里运行的。遇到两个小坑。
1-当HDFS路径参数指定为:“hdfs://localhost/1.txt”时,程序报错 No FileSystem for scheme: hdfs.
经过查询发现,由于hadoop-hdfs和hadoop-common中均存在org.apache.hadoop.fd.FileSystem,
common中的FileSystem:
org.apache.hadoop.fs.LocalFileSystem org.apache.hadoop.fs.viewfs.ViewFileSystem org.apache.hadoop.fs.ftp.FTPFileSystem org.apache.hadoop.fs.HarFileSystemhdfs中的fileSystem:
org.apache.hadoop.hdfs.DistributedFileSystem org.apache.hadoop.hdfs.web.HftpFileSystem org.apache.hadoop.hdfs.web.HsftpFileSystem org.apache.hadoop.hdfs.web.WebHdfsFileSystem org.apache.hadoop.hdfs.web.SWebHdfsFileSystem
需要在configuration中指定
conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
2-在指定后,开始报第二个错误,
Call From localhost/127.0.0.1 to localhost:8020 failed on connection exception
端口错误,在网上查了一圈端口,我是按照《权威指南》布的伪分布式,即在core-site.xml中的设置为:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:/</value>
</property>
</configuration>
报错后,将value改为hdfs://localhost:8020/就好使了。
这个让我稍微有点迷,因为8020应该是 默认的端口。希望随着学习的深入,可以了解。这篇就先写到这里。