目录
4、修改slave文件,添加work节点:(只写两台从机的节点)
6、在sbin目录下的spark-config.sh 文件中加入如下配置:
一、Standalone模式安装
1、上传并解压spark安装包
[root@hadoop101 sorfware]$ tar -zxvf spark-2.4.4-bin-hadoop2.7.tgz -C /usr/local/
[root@hadoop101 sorfware]$ mv spark-2.4.4-bin-hadoop2.7 spark
2、进入spark安装目录下的conf文件夹
[root@hadoop101 sorfware]$ cd spark/conf/
3、修改配置文件名称
[root@hadoop101 conf]$ mv slaves.template slaves
[root@hadoop101 conf]$ mv spark-env.sh.template spark-env.sh
4、修改slave文件,添加work节点:(只写两台从机的节点)
[root@hadoop101 conf]$ vim slaves
hadoop102
hadoop103