Kubernetes的Spark安装History Server(三)

本文介绍如何在Kubernetes环境中部署Spark HistoryServer,通过Hadoop的共享目录展示和跟踪Spark任务状态。首先确保Hadoop HDFS运行并创建必要目录,然后通过修改chart代码、获取镜像和使用Helm安装Spark HistoryServer,最后配置Spark任务以启用事件日志记录。

目的:

通过hadoop的共享目录,可以将Spark运行的状态通过运行在Kubernetes的History Server进行展示和跟踪。

 

前提:

保证Hadoop HDFS已经顺利运行并且事先在hdfs建立如下目录:

hadoop fs -mkdir /eventLog

 

在Kubernetes安装Spark History Server

1:获取chart代码

git clone https://github.com/banzaicloud/banzai-charts.git

 

由于hdfs需要以非root用户连接,并且需要暴露对外服务端口所以作如下代码修改:

cd banzai-charts/spark-hs/

git diff

diff --git a/spark-hs/templates/deployment.yaml b/spark-hs/templates/deployment.yaml

index

env:

+ - name: HADOOP_USER_NAME

+ value: hadoop

- name: SPARK_NO_DAEMONIZE

value: "true"

 

diff --git a/spark-hs/templates/service.yaml b/spark-hs/templates/service.yaml

name: {{ .Chart.Name }}

+ nodePort: 30555

+ type: NodePort

selector:

 

2: 获取镜像

docker pull spark-history-server:v2.2.1-k8s-1.0.30

 

3: 通过helm安装

进入spark-hs目录,执行安装命令;

helm install --set app.logDirectory=hdfs://xx.xx.xx.xx:9000/eventLog .

 

4: 运行和访问

在submit Spark task的时候指定如下配置:

--conf spark.eventLog.dir=hdfs://xx.xx.xx.xx:9000/eventLog

--conf spark.eventLog.enabled=true

之后就可以通过GUI 访问到History Server

 

 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值