ufw disabled #关闭防火墙 或者 放开指定端口
这里部署的是双节点:node1:10.3.1.96 , node2:10.3.1.97
#1.所有机器安装jdk
apt install openjdk-8-jdk -y
java -version #export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_202
#2.部署zookeeper集群(这里使用的外置zookeeper)
ps:也可以使用kafka内置zookeeper (kafka_2.13-3.7.0/bin/zookeeper-server-start.sh kafka_2.13-3.7.0/config/zookeeper.properties)
cd /usr/local
wget https://dlcdn.apache.org/zookeeper/zookeeper-3.8.4/apache-zookeeper-3.8.4-bin.tar.gz
tar -zxvf apache-zookeeper-3.8.4-bin.tar.gz
mv apache-zookeeper-3.8.4-bin zookeeper-3.8.4
cd /usr/local/zookeeper-3.8.4/conf && cp zoo_sample.cfg zoo.cfg
mkdir -p /usr/local/zookeeper-3.8.4/logs
mkdir -p /usr/local/zookeeper-3.8.4/data
vim zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper-3.8.4/data
dataLogDir=/usr/local/zookeeper-3.8.4/logs
clientPort=2181
#客户端访问zk的端口
server.1=10.3.1.96:2888:3888
server.2=10.3.1.97:2888:3888
#说明:2888为组成zookeeper服务器之间的通信端口,3888为用来选举leader的端口,server后面的数字与后面的myid相对应
#注意前后不要有空格 否则报错Invalid config, exiting abnormally 可以通过:set list显示隐藏字符来处理
vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.8.4
export PATH=$ZOOKEEPER_HOME/bin:$PATH
source /etc/profile
#10.3.1.96节点执行
cd /usr/local/zookeeper-3.8.4/data && echo "1" > myid
#10.3.1.97节点执行
cd /usr/local/zookeeper-3.8.4/data && echo "2" > myid
#所有机器启动zk
cd /usr/local/zookeeper-3.8.4/bin
./zkServer.sh start
./zkServer.sh status
#3.部署kafka 并修改配置文件(不同节点参数需修改)
cd /usr/local
wget https://downloads.apache.org/kafka/3.7.0/kafka_2.12-3.7.0.tgz
tar -zxvf kafka_2.12-3.7.0.tgz
mkdir -p /usr/local/kafka_2.12-3.7.0/logs
#10.3.1.96执行如下操作 10.3.1.97同理:只是把id改为2 10.3.1.96改为10.3.1.97即可
vim /usr/local/kafka_2.12-3.7.0/config/server.properties
#id不重复 修改下面三行
broker.id=1
listeners=PLAINTEXT://10.3.1.96:9092
advertised.listeners=PLAINTEXT://10.3.1.96:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
#建议开启 新增此行
delete.topic.enable=true
#修改此行
log.dirs=/usr/local/kafka_2.12-3.7.0/logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
#修改此行
zookeeper.connect=10.3.1.96:2181,10.3.1.97:2181
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0
vim /usr/local/kafka_2.12-3.7.0/config/consumer.properties
bootstrap.servers=10.3.1.96:9092
group.id=test-consumer-group
vim /usr/local/kafka_2.12-3.7.0/config/producer.properties
bootstrap.servers=10.3.1.96:9092
compression.type=none
#所有机器启动
cd /usr/local/kafka_2.12-3.7.0/bin
./kafka-server-start.sh -daemon ../config/server.properties
#配置systemctl 开机自启动 zookeeper和 kafka
vim /lib/systemd/system/zookeeper.service
[Unit]
Description=Apache Zookeeper server
Documentation=http://zookeeper.apache.org
Requires=network.target remote-fs.target
After=network.target remote-fs.target
[Service]
Type=forking
User=root
Group=root
ExecStart=/usr/local/zookeeper-3.8.4/bin/zkServer.sh start
ExecStop=/usr/local/zookeeper-3.8.4/bin/zkServer.sh stop
Restart=on-abnormal
[Install]
WantedBy=multi-user.target
vim /lib/systemd/system/kafka.service
[Unit]
Description=Apache Kafka server (broker)
Documentation=http://kafka.apache.org/documentation.html
Requires=network.target remote-fs.target
After=network.target remote-fs.target zookeeper.service
[Service]
Type=forking
User=root
Group=root
Environment="JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64"
ExecStart=/usr/local/kafka_2.12-3.7.0/bin/kafka-server-start.sh -daemon /usr/local/kafka_2.12-3.7.0/config/server.properties
ExecStop=/usr/local/kafka_2.12-3.7.0/bin/kafka-server-stop.sh
Restart=on-abnormal
[Install]
WantedBy=multi-user.target
#which java; #然后ls -l 直到没有软链则为java安装路径
systemctl daemon-reload #刷新配置
systemctl start zookeeper.service
systemctl enable zookeeper.service
systemctl start kafka.service
systemctl enable kafka.service
注意:systemctl启动若不成功,可以修改Type 然后再尝试
命令行测试
#创建topic
#Kafka的主题一般需要手动创建(Kafka中有配置可以选择自动创建主题auto.create.topics.enable=true,但一般使用中不会自动创建,都是手动创建)
./kafka-topics.sh --create --bootstrap-server 10.3.1.96:9092 --replication-factor 3 --partitions 3 --topic test #老版本 --zookeeper 10.3.1.96:2181
./kafka-topics.sh --describe --bootstrap-server 10.3.1.96:9092 --topic test
./kafka-topics.sh -list --bootstrap-server 10.3.1.96:9092
./kafka-console-producer.sh --broker-list 10.3.1.96:9092 --topic test
./kafka-console-consumer.sh --bootstrap-server 10.3.1.96:9092 --topic test --from-beginning
#旧版Kafka,用的是zookeeper地址而非bootstrap.servers
#主要有两个目的/动机:一是优化元数据管理,原来的zk方案,极端情况下可能会造成数据不一致;二是简化部署和配置。
#bootstrap.servers只是用于客户端启动(bootstrap)的时候有一个可以热启动的一个连接者,一旦启动完毕客户端就应该可以得知当前集群的所有节点的信息,日后集群扩展的时候客户端也能够自动实时的得到新节点的信息,即使bootstrap.servers里面的挂掉了也应该是能正常运行的,除非节点挂掉后客户端也重启了
#服务器是Kafka,生产者(发送数据的)和消费者(接收数据的)是客户端
#删除topic
#1.kafka启动之前,在server.properties配置delete.topic.enable=true
#2.执行命令bin/kafka-topics.sh --delete --topic test --zookeeper zk:2181或者使用kafka-manager集群管理工具删除
#注意:如果没有设置 delete.topic.enable=true,则调用kafka 的delete命令无法真正将topic删除,而是显示(marked for deletion)
kafka基本概念介绍:
broker:就是一个kafka服务器,一个broker中有多个topic
topic:producer和consumer从topic中拿消息,topic相当于将消息进行了分类
partition:消息分区,将一个topic分为多个分区进行管理
注意: kafka中的leader和follower是针对partition来说的。一个partition的leader用来做数据的读写,而follower的作用只能做数据的备份。
replication::partition的副本,做数据备份
consumerGroup::消费者组,由多个消费者组成,一个partition的内容只能由一个组中的一个消费者消费,避免重复消费问题,但是可以消费多个topic,消费组与组之间互不关联。如果没有对消费者分组,那么一个分区的数据可以被多个消费者消费
zookeeper:zk中存储kafka的集群信息,(记录集群中哪些broker服务器上线了,哪个partition是主)和消费者的offset(也就是consumer上次消费到的位置信息,类似计数器,保证consumer挂了后,再次启动仍继续消费),0.9版本之后offset改为存储在kafka中,logs目录下