spark的安装
#spark的安装##在habdoop安装完成的前提下##将下载好的spark,复制到/usr/tmp,并到此目录底下##解压到/usr/local进入解压目录(/usr/local)修改spark的名字使Hadoop是当前登录系统的用户名进入解压的spark目录并将目录下的con/spark-env.sh.template复制到con,并改名为spark-env.sh这里显示权限不够使用sudonautilus手动复制文件并改名改名后在spark-env.sh在第一行
原创
2020-10-27 19:42:24 ·
166 阅读 ·
0 评论