六、阿里云搭建Hadoop伪分布式环境

本文详细介绍了Hadoop伪分布式环境的搭建步骤,包括配置JAVE_HOME环境变量、解决DatNode启动失败的问题,以及如何进行基本的功能测试,如在HDFS中创建目录、上传文件、查看文件内容等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、搭建过程
  • 按照官方文档一步一步搭建。
  • 在格式化文件系统之前,修改/home/hassan/software/hadoop/hadoop-2.9.2/etc/hadoop/hadoop-env.sh中变量的JAVE_HOME的值为自己机器java根目录的具体路径,否则无法搭建成功。
  • 之前在机器上搭建过伪分布式环境,这次启动之后在HDFS中创建目录成功,但是将本地文件复制到HDFS中失败,果不其然,jps发送NameNode启动成功,但是DatNode没启动成功,解决办法是将/tmp目录下hadoop的临时文件删除,然后停止HDFS,再启动即可。
2、测试
  • 浏览器地址栏输入http://47.101.159.36:50070,看能否访问HDFS的web界面。
  • 在本地创建一个文件:touch testfile,然后写点数据进去echo "hello, hdfs." > testfile,然后在HDFS中创建目录:hdfs dfs -mkdir /hassan,然后将testfile复制到HDFS中:hdfs dfs -copyFromLocal ../testfile /hassan/,然后查看是否上传成功:hdfs dfs -copyFromLocal ../testfile /hassan/,然后从HDFS中查看文件内容:hdfs dfs -cat /hassan/testfile
  • 在HDFS的web界面查看自己上一步上传的文件是否存在。
  • 浏览器地址栏输入http://47.101.159.36:8088/cluster,查看能否访问YARN的web界面。
  • 在YARN上运行一个mapReduce程序。
  • 在YARN的web界面上能否看到自己跑的任务。
参考文档:

官方文档:http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值