原创转载请注明出处:http://agilestyle.iteye.com/blog/2292067
前期准备
storm环境变量
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_77
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.4
export HIVE_HOME=/home/hadoop/app/apache-hive-1.2.1-bin
export HBASE_HOME=/home/hadoop/app/hbase-1.1.4
export STORM_HOME=/home/hadoop/app/apache-storm-1.0.0
export ZOOKEEPER_HOME=/home/hadoop/app/zookeeper-3.4.8
export PATH=$PATH:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${HIVE_HOME}/bin:${HBASE_HOME}/bin:${STORM_HOME}/bin:${ZOO
KEEPER_HOME}/bin
配置Storm集群
修改conf的目录下的storm.yaml —— vi storm.yaml
storm.zookeeper.servers:
- "hadoop-0000"
- "hadoop-0001"
- "hadoop-0002"
nimbus.seeds: ["hadoop-0002"]

保存退出之后,scp到其他两台Server上
scp -r apache-storm-1.0.0/ hadoop-0001:/home/hadoop/app/ scp -r apache-storm-1.0.0/ hadoop-0002:/home/hadoop/app/

启动Storm集群
首先启动nimbus主机(这里配置的是hadoop-0002)
storm nimbus

启动nimbus的UI
storm ui

jps查看进程

http://hadoop-0002:8080/index.html

接着分别在其他两台Server上启动supervisor(这里配置的是hadoop-0000,hadoop-0001)
storm supervisor

JPS查看进程

再次查看Storm UI

这里仅仅是为了演示,以后启动执行以下命令
解析:dev启动一个记录日志文件,名为null, 1表示标准输出,2表示错误输出, 2>&1表示将标准出错重定向到标准输出,最后一个&表示后台执行
nimbus主机上启动
storm nimbus 1>/dev/null 2>&1 & storm ui 1>/dev/null 2>&1 &
supervisor主机上启动
storm supervisor 1>/dev/null 2>&1 &
本文详细介绍了如何搭建并启动Storm集群,包括环境变量配置、storm.yaml文件修改、集群各组件启动命令等内容。
824

被折叠的 条评论
为什么被折叠?



