kafka的安装即集群部署

本文详细介绍Kafka的配置文件设置,包括Zookeeper地址指定、服务启动、Topic管理及流处理流程。涵盖创建、查看、删除Topic,以及通过消费者、生产者进行消息交互的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#kafka 配置文件 /usr/local/etc/kafka/server.properties 里面有指定zookeeper 的地址 127.0.0.1:2181(所以要自己先启动个zk服务)

#启动kafka(会向zk中写入一些节点):    
kafka-server-start /usr/local/etc/kafka/server.properties

#创建一个topic
kafka-topics --zookeeper localhost:2181 --create --replication-factor 1 --partitions 1 --topic topic-mc

#查看所有topic
kafka-topics --zookeeper localhost:2181 --list

#查看详细topic分区副本
kafka-topics --zookeeper localhost:2181 --describe

#删除一个topic
kafka-topics --zookeeper localhost:2181 --delete --topic wenjian

#查看topic各个分区的offset
kafka-run-class kafka.tools.GetOffsetShell --broker-list 127.0.0.1:9092 --topic topic-test1

创建一个消费者 启动一个服务
kafka-console-consumer --bootstrap-server 127.0.0.1:9092 --topic wenjiantopic --from-beginning

创建一个生产者 启动一个服务
kafka-console-producer --broker-list 127.0.0.1:9092 --topic wenjiantopic

#流式处理
创建两个topic  topic名字不可以变,在下面demo里面硬编码了这个名字
kafka-topics --zookeeper localhost:2181 --create --replication-factor 1 --partitions 1 --topic streams-wordcount-output
kafka-topics --zookeeper localhost: 2181/stream --describe --topic streams-wordcount-output,streams-plaintext-input
开启服务-流失处理demo单词统计
./kafka-run-class.sh org.apache.kafka.streams.examples.wordcount.WordCountDemo
开启服务-生产者
./kafka-console-producer --broker-list localhost:9092 --topic streams-plaintext-input
开启服务-消费者
./kafka-console-consumer --bootstrap-server localhost:9092 --topic streams-wordcount-output --property print.key=true --property value.deserializer=org.apache.kafka.common.serialization.LongDeserializer

文件存储
使用log.roll.hours 和log.segment.bytes来分文件,默认是超过7天,或者是1GB大小就分文件  log.roll.hours和log.segment.bytes 都在kafka的 server.properties

-rw-r--r--   1 dxm  admin       192  3 11 14:52 00000000000000000000.index
-rw-r--r--   1 dxm  admin    102318  3 11 14:52 00000000000000000000.log
-rw-r--r--   1 dxm  admin       300  3 11 14:52 00000000000000000000.timeindex
-rw-r--r--   1 dxm  admin       192  3 11 15:00 00000000000000001207.index
-rw-r--r--   1 dxm  admin    102340  3 11 15:00 00000000000000001207.log
-rw-r--r--   1 dxm  admin       300  3 11 15:00 00000000000000001207.timeindex
-rw-r--r--   1 dxm  admin       192  3 11 15:08 00000000000000002411.index
-rw-r--r--   1 dxm  admin    102337  3 11 15:08 00000000000000002411.log
-rw-r--r--   1 dxm  admin        10  3 11 15:00 00000000000000002411.snapshot
-rw-r--r--   1 dxm  admin       300  3 11 15:08 00000000000000002411.timeindex
-rw-r--r--   1 dxm  admin  10485760  3 11 15:08 00000000000000003602.index
-rw-r--r--   1 dxm  admin     40162  3 11 15:11 00000000000000003602.log
-rw-r--r--   1 dxm  admin        10  3 11 15:08 00000000000000003602.snapshot
-rw-r--r--   1 dxm  admin  10485756  3 11 15:08 00000000000000003602.timeindex

timeindex log index 文件是一组, index和timeindex是索引文件,log是消息文件
00000000000000002411.log 表示 offset从2411到3602的消息存储文件
index和timeindex文件可以查看(必须用kafka的脚本./kafka-run-class kafka.tools.DumpLogSegments --files /****/00000000000000001207.index)

index索引文件 offset和position在当前.log文件中的映射
offset: 2460 position: 4165
offset: 2509 position: 8339
offset: 2557 position: 12467

timeindex索引文件 timestamp和offset 在当前.log文件中的映射
timestamp: 1583910045033 offset: 2460


 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值