spark-3.1.3-bin-without-hadoop 配置的关键步骤(有步骤省率)

该文详细介绍了如何配置Spark环境,包括在.bashrc中设置SPARK_HOME和PATH,编辑spark-env.sh文件设定JAVA_HOME,SCALA_HOME等参数,以及配置workers文件。接着,文章提到了使用start-master.sh和start-slaves.sh脚本启动Spark集群,并提供了检查8080端口是否开放的命令。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 环境变量配置(.bashrc(普通用户模式))

#SPARK
export SPARK_HOME=/home/CWH/Spark/spark-3.1.3-bin-without-hadoop
export PATH=${SPARK_HOME}/bin:$PATH

2相关文件配置

----spark-env.sh 文件
export  JAVA_HOME=/home/CWH/jdk1.8.0_271
export  SCALA_HOME=/home/CWH/Spark/scala-2.12.10
export  SPARK_WORKER_MEMORY=30G
export  SPARK_WORKER_CORES=16
export  SPARK_WORKER_INSTANCES=1
export  SPARK_MASTER_IP=10.103.105.76
export SPARK_DIST_CLASSPATH=$(/home/CWH/hadoop-3.1.3/bin/hadoop classpath)
export  HADOOP_CONF_DIR=/home/CWH/hadoop-3.1.3/etc/hadoop
export  SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 "

---- workers 文件配置

westgisB077
westgisB078
westgisB079
westgisB080

3 启动命令

$SPARK_HOME/sbin/start-master.sh

$SPARK_HOME/sbin/start-slaves.sh

4 查看端口开启命令

netstat-tunlpgrep 8080

查看占用端口的进程

lsof-i:8080

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值