hadoop的启动和停止命令

本文详细介绍Hadoop集群中各种守护进程的启动与停止方法,包括NameNode、SecondaryNameNode、DataNode、ResourceManager和NodeManager等核心组件的操作指令。
部署运行你感兴趣的模型镜像
sbin/start-all.sh 启动所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager

sbin/stop-all.sh 停止所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager

sbin/start-dfs.sh 启动Hadoop HDFS守护进程NameNode、SecondaryNameNode、DataNode

sbin/stop-dfs.sh 停止Hadoop HDFS守护进程NameNode、SecondaryNameNode和DataNode

sbin/hadoop-daemons.sh start namenode 单独启动NameNode守护进程

sbin/hadoop-daemons.sh stop namenode 单独停止NameNode守护进程

sbin/hadoop-daemons.sh start datanode 单独启动DataNode守护进程

sbin/hadoop-daemons.sh stop datanode 单独停止DataNode守护进程

sbin/hadoop-daemons.sh start secondarynamenode 单独启动SecondaryNameNode守护进程

sbin/hadoop-daemons.sh stop secondarynamenode 单独停止SecondaryNameNode守护进程

sbin/start-yarn.sh 启动ResourceManager、NodeManager

sbin/stop-yarn.sh 停止ResourceManager、NodeManager

sbin/yarn-daemon.sh start resourcemanager 单独启动ResourceManager

sbin/yarn-daemons.sh start nodemanager  单独启动NodeManager

sbin/yarn-daemon.sh stop resourcemanager 单独停止ResourceManager

sbin/yarn-daemons.sh stopnodemanager  单独停止NodeManager

sbin/mr-jobhistory-daemon.sh start historyserver 手动启动jobhistory

sbin/mr-jobhistory-daemon.sh stop historyserver 手动停止jobhistory

————————————————
版权声明:本文为优快云博主「JasonLee'blog」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.youkuaiyun.com/xianpanjia4616/article/details/87696925

您可能感兴趣的与本文相关的镜像

Python3.8

Python3.8

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

<think> 我们正在讨论Hadoop集群启动命令。根据引用内容,start-all.sh虽然可以启动整个集群,但在2.x/3.x版本不推荐使用,因为会有警告,并且与Spark的启动指令冲突。 在Hadoop 2.x及以后版本,推荐使用以下两个命令启动Hadoop集群: 1. 启动HDFS:在Hadoop主节点(NameNode所在节点)上执行 `start-dfs.sh` 2. 启动YARN:在ResourceManager所在节点上执行 `start-yarn.sh` 注意:如果NameNodeResourceManager在同一台机器上,那么这两个命令都在同一台机器上执行。 另外,也可以分别启动各个组件,但通常使用上述两个命令即可。 因此,启动Hadoop集群的推荐步骤是: 1. 启动HDFS:`start-dfs.sh` 2. 启动YARN:`start-yarn.sh` 停止集群则使用: 1. 停止YARN:`stop-yarn.sh` 2. 停止HDFS:`stop-dfs.sh` 或者,如果希望一个命令停止所有,也可以分别执行。 但是,请注意,在Hadoop 3.x中,还可以使用`hadoop-daemon.sh`(不推荐,已过时)或者`hdfs``yarn`脚本来管理单个守护进程。 然而,根据最佳实践,我们使用`start-dfs.sh``start-yarn.sh`。 所以,回答用户问题:Hadoop启动集群命令是分别运行`start-dfs.sh``start-yarn.sh`。 注意:这些脚本位于Hadoop安装目录的`sbin`目录下。因此,通常需要进入该目录执行,或者将sbin目录添加到PATH环境变量中。 例如: ```bash cd $HADOOP_HOME/sbin ./start-dfs.sh ./start-yarn.sh ``` 或者,如果已经配置了环境变量,可以直接使用: ```bash start-dfs.sh start-yarn.sh ``` 另外,如果使用Hadoop 3.x,还可以使用以下命令启动整个集群(但同样,可能内部也是调用上述两个命令): ```bash hadoop-daemons.sh start namenode ... # 不推荐,因为需要指定多个参数 ``` 所以,我们坚持推荐使用`start-dfs.sh``start-yarn.sh`。 同时,我们也可以告诉用户,在Hadoop 3.x中,还有一个新的脚本`start-all.sh`(内部调用了`start-dfs.sh``start-yarn.sh`),但是因为与Spark的启动命令冲突(Spark的启动命令也是`start-all.sh`)而不推荐使用,而且会给出警告。 因此,为了避免混淆,我们推荐分开执行。 总结:启动Hadoop集群(2.x/3.x)的推荐命令是: 1. `start-dfs.sh` # 启动HDFS 2. `start-yarn.sh` # 启动YARN 注意:执行这些命令需要在Hadoop的主节点(对于HDFSNameNode节点,对于YARN是ResourceManager节点)上执行。如果集群配置为高可用(HA),则需要在多个节点上执行相应的守护进程启动命令,但通常使用上述脚本即可,脚本会根据配置文件自动启动集群中所有的相关节点。 另外,启动后可以通过jps命令查看Java进程来验证。 因此,给用户的回答如下: </think> 在Hadoop 2.x及更高版本中,启动集群的推荐命令如下: ### 推荐启动方式 1. **启动HDFS** 在NameNode节点执行: ```bash $HADOOP_HOME/sbin/start-dfs.sh ``` 2. **启动YARN** 在ResourceManager节点执行: ```bash $HADOOP_HOME/sbin/start-yarn.sh ``` > 📌 说明: > - `$HADOOP_HOME`是Hadoop安装目录(如`/usr/local/hadoop`) > - 如果NameNodeResourceManager在同一节点,可合并执行 > - 启动后通过`jps`命令验证进程是否正常 ### 不推荐的方式(已弃用) ```bash start-all.sh # Hadoop 2.x/3.x会触发警告,且与Spark命令冲突[^1] ``` ### 验证命令 ```bash hdfs dfsadmin -report # 查看HDFS状态 yarn node -list # 查看YARN节点 ``` ### 完整启动示例 ```bash # 切换到Hadoop用户 su - hadoop # 启动HDFS cd $HADOOP_HOME/sbin ./start-dfs.sh # 启动YARN ./start-yarn.sh # 验证 jps # 应包含:NameNode, DataNode, ResourceManager, NodeManager等 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值