如何搭建spark yarn模式集群的集群

准备工作
确保集群中各节点已安装并配置好 Java 环境,且版本符合 Spark 要求。
规划好集群中节点的角色,如 Master 节点、Worker 节点等,并确保各节点之间网络畅通,能相互访问。
安装 Hadoop
配置 Spark on YARN
下载适合你系统的 Hadoop 版本,解压到指定目录。
配置 Hadoop 的核心配置文件,如core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml,设置相关参数,如文件系统路径、资源分配等。
格式化 Hadoop 文件系统(通常在 Master 节点上执行):hdfs namenode -format。
启动 Hadoop 集群,包括 NameNode、DataNode、ResourceManager 和 NodeManager 等服务。
安装 Spark
下载 Spark 安装包,解压到集群各节点的指定目录。
进入 Spark 的配置目录,复制spark-env.sh.template为spark-env.sh,并进行编辑,设置以下环境变量:
export JAVA_HOME=/path/to/java(替换为实际的 Java 安装路径)
export HADOOP_CONF_DIR=/path/to/hadoop/conf(Hadoop 配置文件目录)
可以根据需要设置其他参数,如SPARK_MEM等。
同样在配置目录下,复制slaves.template为slaves,在slaves文件中列出所有 Worker 节点的主机名或 IP 地址,每行一个。

编辑spark-defaults.conf文件,添加或修改以下配置:
spark.master yarn:指定 Spark 运行在 YARN 模式下。
spark.submit.deployMode cluster:设置提交模式为集群模式。
还可以配置其他参数,如spark.executor.memory、spark.executor.cores等,以调整资源分配。
启动 Spark 集群
在 Master 节点上,使用以下命令提交一个 Spark 示例应用程序来测试集群是否正常运行:

spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
/path/to/spark-examples.jar \
[parameters]

其中,/path/to/spark-examples.jar是 Spark 示例应用程序的路径,[parameters]是应用程序所需的参数。
验证集群
可以通过 Hadoop 的 YARN Web 界面(通常在http://resourcemanager-host:8088)查看应用程序的运行状态和资源使用情况。
也可以通过 Spark 的 Web 界面(通常在http://master-host:4040,如果是集群模式,可能在 YARN 的应用程序页面中找到 Spark 的 Web UI 链接)查看 Spark 应用程序的详细信息,如执行计划、任务进度等。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值