配置Spark history server

启动Spark History Server时遇到进程未启动的问题,原因是缺少配置文件及logDirectory配置。解决方案包括:1) 配置$SPARK_HOME/conf/spark-defaults.conf,添加必要参数;2) 在HDFS上创建spark logs存储目录;3) 指定日志路径启动History Server;4) 检查History Server UI和job执行情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题描述:启动sbin/start-history-server.sh,jps下无historyserver进程,查看日志,显示如下错误。

原因分析:

1)查看$SPARK_HOME/conf,发现未配置spark-default.conf;

2)将spark.fs.history.logDirectory配置到conf/spark-defaults.conf目录里,发现并不起作用


解决方法:

1)配置$SPARK-HOME/conf/spark-defaults.conf

[hadoop@Master conf]$ cpspark-defaults.conf.template spark-defaults.conf

[hadoop@Master conf]$ vispark-defaults.conf

添加以下相关参数。

spark.eventLog.enabled           true

spark.eventLog.dir               hdfs://Master:9000/user/hadoop/sparkhistorylogs

spark.history.ui.port              18080

spark.history.fs.logDirectory      hdfs://Master:9000/user/hadoop/sparkhistorylogs

2)在hdfs创建spark logs存储目录。

[hadoop@Master conf]$ hdfs dfs –mkdir/user/hadoop/sparkhistorylogs

3)启动spark historyserver 需要指定logs所在的hdfs路径。

[hadoop@Master spark-1.6.0-bin-hadoop2.6]$sbin/start-history-server.sh

4)查看结果

查看History server webUI

执行一个spark job

查看Master

查看History Server


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值