spark启动顺序-笔记

本文介绍如何部署Hadoop的数据管理系统并通过验证其运行状态,同时详细阐述Spark系统的启动过程,包括配置spark-defaults.conf文件以启用历史记录服务器并设置相关参数。

1:hadoop的sbin下的dsf数据管理系统//验证http://192.168.190.134:50070/(主hadoop系统)


2:spark的sbin下的start-all.sh启动系统


       start-history-server.sh历史记录

(之前要在spark-defaults.conf配置

spark.executor.extraJavaOptions    -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
spark.eventLog.enabled             true
spark.eventLog.dir                 hdfs://master:9000/historyserverforSpark
spark.yarn.historyServer.address   master:18080
spark.history.fs.logDirectory      hdfs://master:9090/historyserverforSpark)


3:spark的bin下的spark-shell  

然后jps验证一下


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值