spark-on-yarn日志配置

spark on yarn 日志无法正常显示

是因为我们在运行spark任务后,默认是由AM进行历史任务汇聚,拼接的URL是job history的链接,但是spark里面>是drive负责汇聚,需要通过spark history进行收集后才能查看。
在这里插入图片描述

下面给出配置方式

1. 修改spark-defaults.conf

添加以下内容


spark.eventLog.enabled  true
spark.eventLog.compress  true
spark.eventLog.dir    hdfs:///user/log/spark
spark.yarn.historyServer.address  park-host:18080

  1. spark.eventLog.dir 配置日志存放地址,可以是file开头的本地或者是hdfs开头的hadoop目录,但是要提前创建对应目录
  2. spark.yarn.historyServer.address 是要在spark 所在服务器上启动的history服务器的配置

2. 修改sparn-env.sh

添加

export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs:///user/log/spark"

3. 启动Spark History Server

/usr/local/spark/sbin/start-history-server.sh

4. 访问测试

在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值