Ubuntu安装 Spark2.3.0 报错原因及解决

Ubuntu 安装Spark出现的问题及解决

最近在搭建Hadoop集群环境和Spark集群环境,出现的问题可能不太复杂,纯粹记录安装步骤和问题解决办法。
集群环境使用的是(2台)阿里云主机,操作系统是Ubuntu 16.04.9版本

运行环境

Linux 操作系统:Ubuntu 16.04.9
Spark 安装版本(红色箭头的是下图安装报错的版本)

报错信息:

原因:没有用对Spark安装包,应该选择Hadoop编译后的安装包。在http://spark.apache.org/官网选择Pre-build对应hadoop版本的Spark安装包

环境搭建

1、修改集群配置文件
mv /spark/conf/slaves.template /spark/conf/slaves
vi /spark/conf/slaves
添加slave主机IP/hostname

2、修改Master节点运行配置
mv /spark/conf/spark-env.sh.template /spark/conf/spark-env.sh
如下配置项:

Spark环境变量配置

1、配置步骤
省略...

2、修改Spark 启动脚本(因为这个和Hadoop启动脚本名称冲突)
mv /spark/sbin/start-all.sh /spark/sbin/start-spark.sh
mv /spark/sbin/stop-all.sh /spark/sbin/stop-spark.sh

 

 

转载于:https://www.cnblogs.com/chwilliam85/p/9435226.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值