首先要多看看官网的文档http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html
一. ssh问题,ssh localhost出现Permission denied问题,这个帖子解决了问题https://blog.youkuaiyun.com/hanhuili/article/details/11055293
其中最主要的是这条 chmod go-w ~/ 帖子里有说明原因。
二 .localhost:50070无法访问
尝试添加端口配如下
1. mapred-site.xml 添加下面两个
<property>
<name>mapred.job.tracker.http.address</name>
<value>0.0.0.0:50030</value>
</property>
<property>
<name>mapred.task.tracker.http.address</name>
<value>0.0.0.0:50060</value>
</property>
2. hdfs-site.xml 添加下面配置
<property>
<name>dfs.http.address</name>
<value>0.0.0.0:50070</value>
</property>
3.改完配置文件或者第一次运行需要格式化namenode
bin/hdfs namenode -format
4. elclipse运行example代码需要装插件,把插件放到eclipse的dropins目录下,重启eclipse就可以进行配置,具体配置流程随便搜就有 https://blog.youkuaiyun.com/mbshqqb/article/details/54798780
也可以从shell里使用命令运行example代码
./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar wordcount <input> <output>