1. 独立启动/停止Hadoop进程
在一台主机上执行
hadoop-daemon.sh start datanode
hadoop-daemon.sh stop datanode
或者
hdfs datanode
Ctrl + z
bg 或者 bg %1 # 转后台运行
2. 新增DataNode主机
# 清除存在的tmp和logs目录
# 启动datanode进程
hadoop-daemon.sh start datanode
# 启动yarn进程
yarn-daemon.sh start nodemanager
# 在NameNode节点上刷新节点
hdfs dfsadmin -refreshNodes
# 查看Web UI
node01:50070
node01:8088
# 做均衡处理将数据分担到新增节点上
hdfs balancer
# 上传文件到HDFS
hdfs dfs -put abigfile /data
3. API
HDFS的客户端有命令行(CLI)界面和编程界面(API)。
注意:使用API修改的配置参数(内存中),不影响HDFS服务器端已有的存储,只影响改变参数后上传的文件的存储。有些HDFS的参数是要在服务器端进行修改的。
NameNode的元数据是保存在内容中的。
4. hadoop与软/硬连接
hdfs的体系结构中没有提供对软或者硬链接的支持。
本文详细介绍了如何在Hadoop集群中独立启动和停止进程,新增DataNode主机的步骤,以及通过API进行配置参数修改的方法。同时,还探讨了Hadoop与软/硬连接的不兼容性。
1211

被折叠的 条评论
为什么被折叠?



