目录
1、将spark-2.2.0-bin-hadoop2.7.tgz 上传到 /usr/local/spark/ 下,然后解压
1、进谷歌浏览器看看(端口号是8080 和tomcat端口号是一样的,注意后期一块启动的冲突问题)
2、按装完之后执行Spark程序进行迭代计算Spark上的PI示例
Spark高可用(先启动zookeeper再启动spark)
3. 在node1节点上修改slaves配置文件内容指定worker节点
5.在node1上执行sbin/start-all.sh脚本,然后在node2上执行sbin/start-master.sh启动第二个Master。
Spark基于yarn调度的模式 Spark on yarn
3.在hadoop的yarn-site中添加如下配置 三台都需要配
二、通过往spark集群上运行jar包,测试安装效果,看是否安装成功
2.1、spark-shell --master yarn-client 进yarn spark shell界面的
2.3、基于yarn的两种模式(client模式和cluster模式)
spark的Standalone模式安装
一、安装流程
1、将spark-2.2.0-bin-hadoop2.7.tgz 上传到 /usr/local/spark/ 下,然后解压

2、进入到conf中修改名字 改为 .sh 结尾的

3、编辑 spark-env.sh
4、修改slaves 的名字 并且编辑他


5、发送到其他两台虚拟机上
6、修改ect/proflie下面的配置环境
7、到spark的sbin目录下 修改启动命令
8、启动之后的jps数目


二、检测是否安装成功
1、进谷歌浏览器看看(端口号是8080 和tomcat端口号是一样的,注意后期一块启动的冲突问题)
2、按装完之后执行Spark程序进行迭代计算Spark上的PI示例
三、进入spark的shell界面操作算子
Spark高可用(先启动zookeeper再启动spark)
来源网址: file:///F:/vm/老師錄屏/stage4/spark/高可用spark提交任务.docx
作者: ℡XSs🐑
|
计划:node132,node133是master node132,node33,node34是worker
一、安装流程
1、 conf 目录下编辑 nano ./spark-env.sh,先把Standalone模式注释掉,将park-env.sh里面一下截图内容进行修改:
