分布式部署(JDK1.8+Hadoop3.2+Spark2.4+Ubuntu16.04)
本次分布式Spark环境部署采用JDK1.8、Hadoop3.2、Spark2.4的套装,一个Master,两个Slaves
1. 修改hosts文件,设置Master、Slaves1、Slaves2节点的IP地址。
2. SSH免登录设置
#ssh-keygen -t rsa
一直回车,后将文件分别拷贝到Master,Slaves1,Slaves2中
#ssh-co...
原创
2019-04-23 11:25:55 ·
957 阅读 ·
0 评论