kafka部署
1.在/home/storm/目录下新建kafka目录存放软件包,解压软件mkdir kafka
unzip kafka_2.9.2-0.8.1.1.storm.zip
2.修改配置文件server.properties:
cd kafka/kafka_2.9.2-0.8.1.1/config
broker.id=0host.name=192.168.1.142(自己的ip)
zookeeper.connect=192.168.1.142:2181可逗号分隔配置多个
修改配置文件vim log4j.properties
log4j.appender.D.File = /home/storm/kafka/kafka_2.9.2-0.8.1.1/logs/debug.log
log4j.appender.E.File = /home/storm/kafka/kafka_2.9.2-0.8.1.1/logs/error.log
4.确保bin、sbin有执行权限
chmod +x *
5.启动kafka服务:
sbin/start-kafka.sh查看是否启动: jsp -l
6.创建topic主题:
bin/kafka-topics.sh --create --zookeeper 192.168.1.142:2181 --replication-factor 1 --partitions 1 --topic topic-002-test (IP不能改成主机名,但可以使用127.0.0.1)
启动productor:
bin/kafka-console-producer.sh --broker-list 192.168.1.142:9092 --topic topic-002-test启动consumer:
bin/kafka-console-consumer.sh --zookeeper 192.168.1.142:2181 --topic topic-002-test
在productor端输入,看consumer端的输出。
错误排除:
1.代码一定不要敲错,我出现多次错误,报错是 缺少zookeeper必须参数和缺少topic必须参数
2.端口不要写错,若是有错误不妨看看端口是否正确
netstat -ant |grep 9092(端口号)