问题如图:
failed to launch: nice -n 0 /home/bigdata/cluster/spark/bin/spark-class org.apache.spark.deploy.worker.Worker
解决:
- 首先定位到你的 java jdk 安装绝对位置,以我本机为例
# 即
/usr/local/java/jdk1.8.0_271
- cd 到你安装解压的spark目录下,以我本机为例
- 进入修改 spark-config.sh 文件
vim /spark/sbin/spark-config.sh
- 将 JAVA_HOME = # 你的jdk路径 ,以我本将为例
- 接下来再次启动,大功告成!