Spark on YARN集群动态扩容

基础工作

  1. 新增节点上安装scala;
  2. 新增节点上新建用于存放spark数据和日志的目录;
  3. 将新增节点的主机名添加到slaves文件中;
  4. 复制spark配置好的安装包到新增节点;
  5. 在新增节点上配置spark环境变量

添加worker

如果Spark集群使能了External Shuffle Service功能,添加worker需要采用如下方式

  1. 在spark的master节点上执行如下命令,停止整个spark集群
stop-all.sh
  1. 在YARN的ResourceManager节点上执行如下命令,停止整个yarn集群
stop-yarn.sh
  1. 在spark的master节点上执行如下命令,启动整个spark集群
start-all.sh
  1. 在YARN的ResourceManager节点上执行如下命令,启动整个yarn集群
start-yarn.sh

如果Spark集群未使能External Shuffle Service功能,添加worker需要采用如下方式

在新增的节点上启动worker,从而完成新节点的注册和加入集群

start-slave.sh spark://<worker>:7077

新增节点启动验证

在新增节点上执行jps命令,看是否有可以看到worker进程,或者查看Spark UI,看workers中是否有新增节点。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值