1、spark-defaults.conf:spark.eventLog开头的配置
spark.eventLog.enabled true
spark.eventLog.compress true
spark.eventLog.dir hdfs://ip:port/log/或者file:///tmp/spark-events
2、spark-env.sh中的SPARK_HISTORY_OPTS:spark.history开头的配置
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=300 -Dspark.history.ui.maxApplications=2000 -Dspark.history.fs.logDirectory=hdfs://ip:port/log/ -Dspark.history.fs.cleaner.enabled=true -Dspark.history.fs.cleaner.interval=1d -Dspark.history.fs.cleaner.maxAge=7d"
Spark History Server配置
最新推荐文章于 2024-04-27 16:09:31 发布
本文详细介绍了Spark集群中日志记录与历史服务器的配置方法。包括spark-defaults.conf中关于事件日志的启用、压缩及目录设置,以及spark-env.sh中历史服务器的各项参数配置,如端口、保留应用程序数量、日志目录、清理策略等。
1012

被折叠的 条评论
为什么被折叠?



