(1)下载jar包并上传到/home目录,kafka_2.11-2.1.0
(2)解压:tar -zxvf kafka_2.11-2.1.0.tgz
(3)进入配置文件目录:cd /home/kafka_2.11-2.1.0/config
(4)修改配置文件(实际配置如下标红部分): vi server.properties
修改如下:
broker.id=1 #每台服务器的broker.id都不能相同,千万要修改!!!!
listeners=PLAINTEXT://:9092
zookeeper.connect=ip:2181,ip:2181,ip:2181
message.max.byte=5242880 #在log.retention.hours=168属性下加上如下三行配置
default.replication.factor=3
replica.fetch.max.bytes=5242880
(5)复制到其他机器上去(有几台机器复制几台机器,别忘了改配置文件的broker.id)
scp -r kafka-2.11 10.10.77.151:/home/
(6)配置环境变量
执行命令:vim /etc/profile
#在最后添加这两行Kafka的配置
export KAFKA_HOME=/usr/local/kafka-2.11
export PATH=$PATH:$KAFKA_HOME/bin
(7)启动kafka ,cd到kafka的bin目录下执行下面的命令
启动命令: ./kafka-server-start.sh -daemon ../config/server.properties
JPS -v中有Kafka进程则成功
(8)接着在kafka的bin目录下执行新建topic的命令
./kafka-topics.sh --create --zookeeper 10.10.77.151:2181 --replication-factor 1 --partitions 1 --topic ziqi
(9)所有kafka节点中检查topic有没有创建成功
./bin/kafka-topics.sh --list --zookeeper localhost:2181
(10)如果成功的话,则在其中一台kafka节点的bin目录执行此命令,会出现一个客户端窗口,随意输入向topic中生产消息
./kafka-console-producer.sh --broker-list 10.10.77.151:9092 --topic ziqi
(11)在其他kafka节点的bin目录下用此命令查看刚才生产的消息
./kafka-console-consumer.sh --bootstrap-server 10.10.77.151:9092 --topic ziqi --from-beginning
ok完成~