hadoop安装参考连接:
[url]http://www.cnblogs.com/yjmyzz/p/4280069.html[/url]
需要注意事项:
需要安装unzip解压maven
yum install -y unzip zip;
[color=red]1.2 修改hosts文件[/color]
master,slave01,slave02都需要写真实的ip地址,不能写127.0.0.1
[color=red]4.5 验证[/color]
需要在hadoop用户下进行,不能在root用户下进行
[color=red]
步骤七:将master上的hadoop目录复制到slave01,slave02[/color]
注:slave01、slave02上的hadoop临时目录(tmp)及数据目录(data),仍然要先手动创建。
[color=red]在hadoop用户下建立input、output文件夹[/color]
cd /home/hadoop/hadoop-2.6.2/bin/
./hdfs dfs -mkdir -p /home/hadoop/output
./hdfs dfs -mkdir -p /home/hadoop/input
[color=red]处理在window的eclipse不能上传文件的问题[/color]
打开 hdfs-site.xml 加入一个属性值
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
master中没有data文件夹,所以此处的创建data文件夹忽略
验证是否安装成功(master节点的ip地址):
[url]http://192.168.1.34:8088/cluster[/url]
[url]http://192.168.1.34:50070/dfshealth.html#tab-overview[/url]
[url]http://www.cnblogs.com/yjmyzz/p/4280069.html[/url]
需要注意事项:
需要安装unzip解压maven
yum install -y unzip zip;
[color=red]1.2 修改hosts文件[/color]
master,slave01,slave02都需要写真实的ip地址,不能写127.0.0.1
[color=red]4.5 验证[/color]
需要在hadoop用户下进行,不能在root用户下进行
[color=red]
步骤七:将master上的hadoop目录复制到slave01,slave02[/color]
注:slave01、slave02上的hadoop临时目录(tmp)及数据目录(data),仍然要先手动创建。
[color=red]在hadoop用户下建立input、output文件夹[/color]
cd /home/hadoop/hadoop-2.6.2/bin/
./hdfs dfs -mkdir -p /home/hadoop/output
./hdfs dfs -mkdir -p /home/hadoop/input
[color=red]处理在window的eclipse不能上传文件的问题[/color]
打开 hdfs-site.xml 加入一个属性值
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
master中没有data文件夹,所以此处的创建data文件夹忽略
验证是否安装成功(master节点的ip地址):
[url]http://192.168.1.34:8088/cluster[/url]
[url]http://192.168.1.34:50070/dfshealth.html#tab-overview[/url]
459

被折叠的 条评论
为什么被折叠?



