Hadoop学习之路:
----------------------------------------------------------
调用顺序:
1.先调用(hadoop)\libexec\hadoop-config.sh HADOOP_CONF=... //--config参数
2."${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR
3."${HADOOP_HDFS_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR
#为了提高程序的可以执行,使用#!/usr/bin/env bash
#!/usr/bin/env bash#提示脚本作用:在master节点上,启动所有的守护进程
# Start all hadoop daemons. Run this on master node#运行命令时的提示信息
echo "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh"#${BASH_SOURCE-$0}得到运行文件的绝对路径/var/local/hadoop/hadoop-2.6.0/sbin/start-all.sh
#dirname 得到运行文件的目录/var/local/hadoop/hadoop-2.6.0/sbin/
bin=`dirname "${BASH_SOURCE-$0}"`#进入/var/local/hadoop/hadoop-2.6.0/sbin/,并将这个目录赋值给bin
bin=`cd "$bin"; pwd`#DEFAULT_LIBEXEC_DIR=/var/local/hadoop/hadoop-2.6.0/libexec
DEFAULT_LIBEXEC_DIR="$bin"/../libexec
HADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}#运行. $HADOOP_LIBEXEC_DIR/hadoop-config.sh文件,对配置参数进行初始化
. /$HADOOP_LIBEXEC_DIR/hadoop-config.sh#$HADOOP_CONF_DIR=/var/local/hadoop/hadoop-2.6.0/etc/hadoop
#$HADOOP_HDFS_HOME=/var/local/hadoop/hadoop-2.6.0
# start hdfs daemons if hdfs is present
if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then
"${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR
fi# start yarn daemons if yarn is present
if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then
"${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR
fi
本文详细介绍了Hadoop集群启动过程中的关键步骤,包括通过start-all.sh脚本依次启动HDFS和YARN服务的具体流程,以及涉及到的相关配置文件和环境变量。
1366

被折叠的 条评论
为什么被折叠?



