- 博客(1)
- 收藏
- 关注
原创 Linux环境下Spark单机部署安装经验分享(已经安装了Hadoop)
sudo cp -r /home/xxx/spark-2.4.0-bin-without-hadoop /home/xxx/spark”将整个spark-2.4.0-bin-without-hadoop/ 文件夹复制到/home/xxx/spark目录下。“sudo tar -zxf /home/xxx/spark-2.4.0-bin-without-hadoop.tgz”(地址改成你自己的),之后会生成一个名为spark-2.4.0-bin-without-hadoop的文件夹。环境变量已正确设置。
2024-12-01 16:14:26
1294
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人