An internal error occurred during: "Connecting to DFS Hadoop".org/apache/commons/configuration/Configuration
Hadoop版本:Hadoop-1.0.3
安装过程遇到的问题:An internal error occurred during: "Connecting to DFS Hadoop".org/apache/commons/configuration/Configuration
解决方法:
对hadoop-eclipse-plugin-1.0.3.jar进行修改。
1. 用归档管理器打开该包,发现只有commons-cli-1.2.jar 和hadoop-core.jar两个包。
将HADOOP_HOME/lib目录下的 commons-configuration-1.6.jar , commons-httpclient-3.0.1.jar , commons-lang-2.4.jar , jackson-core-asl-1.8.8.jar 和 jackson-mapper-asl-1.8.8.jar复制到hadoop-eclipse-plugin-1.0.3.jar的lib目录下2. 修改该包META-INF目录下的MANIFEST.MF,将classpath修改为:
Bundle-ClassPath: classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-httpclient-3.0.1.jar,lib/jackson-core-asl-1.8.8.jar,lib/jackson-mapper-asl-1.8.8.jar,lib/commons-configuration-1.6.jar,lib/commons-lang-2.4.jar
最后,将hadoop-eclipse-plugin-1.0.3.jar复制到Eclipse的plugins目录下。
设置Hadoop的环境参数
Location Name : 此处为参数设置名称,可以任意填写
Map/Reduce Master(地址必须和mapred-site.xml中的mapred.job.tracker相同)
Host: localhost, port: 9001
DFS Master(地址必须和core-site.xml中的 fs.default.name相同)
Host: localhost,Port: 9000
在尝试使用Eclipse的Hadoop插件时遇到了'Connecting to DFS Hadoop'的内部错误,该错误与org/apache/commons/configuration/Configuration有关。问题出现在Hadoop-1.0.3版本的hadoop-eclipse-plugin-1.0.3.jar中,解决方案是修改jar文件内容,增加缺失的依赖。具体步骤包括打开jar文件,添加commons-cli-1.2.jar和hadoop-core.jar,然后将修改后的jar复制到Eclipse的plugins目录。此外,还需要正确配置Hadoop的环境参数,如Map/Reduce Master和DFS Master的地址和端口。
8909

被折叠的 条评论
为什么被折叠?



