1. 环境
节点 (192.168.118.*) |
服务器 |
Node1 (ip:142) |
Node2 (ip:142) |
Node3 (ip:142) |
Node4 (ip:142) |
NameNode |
HDFS master |
是 |
是 |
|
|
ResourceManage |
YARN master |
是 |
|
|
|
NodeManage |
YARN slave |
|
是 |
是 |
是 |
DataNode |
HDFS slave |
|
是 |
是 |
是 |
JournalNode |
HADF 元数据 共享池 |
|
是 |
是 |
是 |
Zookeeper |
Zookeeper |
是 |
是 |
是 |
|
ZKFC |
NameNode 高可用 |
是 |
是 |
|
|
HMaster |
HBase master |
是 |
是 |
|
|
RegionServer |
HBase slave |
是 |
是 |
是 |
是 |
AppMaster |
Spark master |
是 |
|
|
|
Executor |
Spark slave |
|
是 |
是 |
是 |
2. 配置spark
1. 配置slave节点
2. 配置spark-env
exportJAVA_HOME=/usr/java/jdk1.7.0_21
exportSPARK_MASTER_IP=node1
exportSPARK_MASTER_PORT=7077
exportSPARK_WORKER_CORES=1
exportSPARK_WORKER_INSTANCES=1
exportSPARK_WORKER_MEMORY=1g
exportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
exportYARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
exportSPARK_HOME=/root/spark
exportSPARK_JAR=$SPARK_HOME/lib/spark-assembly-1.1.1-hadoop2.5.2.jar
exportPATH=$SPARK_HOME/bin:$PATH
3. 启动spark
./start-all.sh
访问 node1:8080