废话少说直接上部署方案
部署方案,为了便于测试我将采用local的模式,master 和worker 都在同一个节点上,sprk-0.9.1.0
cd conf目录下配置spark-env.sh,添加如下配置项
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g
export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}
SPARK_MASTER_WEBUI_PORT=8090#修改访问集群监控的端口号,默认8080
配置slaves,添加运行worker的节点
hadoop00
启动spark集群(伪分布式单节点)
sbin/start-all.sh
通过UI页面查看是否启动成功,或者通过jps查看master和worker进程是否存在
运行测试程序,进入到spark